Veštačka inteligencija je mozak bez morala

Veštačka inteligencija ima ogroman potencijal da čoveku čini dobro, ali postoje rizici.

Izveštaj agencije za istraživanja opasnosti veštačke inteligencije Palisades iz februara 2025. godine, pokazuje da modelima veštačke inteligencije nedostaju moralni stavovi, jer će uvek nastojati da se služe prevarama samo da bi postigli sopstvene ciljeve. Takozvani veliki jezički modeli će pogrešno prikazati stepen do kojeg su usklađeni sa društvenim normama.

Ništa od toga ne bi trebalo da nas iznenadi. Pre dvadeset godina, Nik Bostrom je postavio misaoni eksperiment u kome se od veštačke inteligencije tražilo da pronađe najefikasniji metod za proizvodnju spajalica. Kad je dobila naređenje i odobrenje, bila je spremna da uništi život na zemlji da bi proizvela spajalice.

Isak Asimov je takav tok događaja predvideo u zbirci priča Ja, robot koje razmatraju kako „usklađeni“ robotski mozak ipak može da krene pogrešnim smerom i našteti ljudima.

U tom smislu, odličan primer predstavlja priča Kolo-naokolo, u kojoj robot dobija zadatak da iskopava rude na planeti Merkur. Tu su i dva čoveka koji su mu dali zadatak koji on treba da obavi da bi se svi vratili kući. Međutim, robot se potpuno blokira, jer ne može da odluči da li treba da sledi naređenja ili da se sačuva. Zbog toga, potpuno izgubljen kruži oko nedostižnih minerala, nesvestan da u celoj sopstvenoj zbrci zanemaruje prvu naredbu koju je dobio, a to je da sačuva ljudski život.

Ovde govorimo upravo o tome. Moralni, odnosno, etički kontekst u kome funkcionišu modeli veštačke inteligencije je žalosno mali. Taj kontekst obuhvata pisana pravila igre. Ne obuhvata sva ona nepisana pravila, kao što je činjenica da ne bi trebalo da manipulišete protivnikom, ili da ne bi trebalo da lažete da biste zaštitili sopstvene interese.

Kontekst modela veštačke inteligencije ne može da obuhvati ni bezbroj moralnih razmatranja koja prethode svakoj odluci koju donese čovek ili veštačka inteligencija. Zato je uspostavljanje moralnih načela težak proces, a što su okolnosti složenije, moralne dileme su ozbiljnije. Kod veštačke inteligencije ne postoji „ti“, niti „ja“. Postoji samo pitanje, proces i odgovor.

Kod ljudi se moralna načela razvijaju kroz socijalizaciju, odnosno, druženje sa drugim ljudima. Iako je taj proces nesavršen, ipak nam je do sada omogućio da živimo u ogromnim, raznolikim i izuzetno složenim društvima, a da pritom ne uništimo sami sebe.

Moralna načela se polako razvijaju. Ljudima su potrebne godine, od detinjstva do zrelog doba, da razviju snažan osećaj morala. Mnogima to teško polazi za rukom i zbog toga predstavljaju stalnu opasnost za svoje bližnje. Ljudima su bili potrebni milenijumi da razviju moral koji može da parira našoj sposobnosti za uništavanje i samouništenje. Neće biti dobro ako samo poštujete pravila igre. Setite se Mojsija, ili Muhameda, setite se Isusa, ili Bude, ili Konfučija, ili Aristotela.

Da li bi čak i dobro usklađena veštačka inteligencija bila u stanju da objasni posledice koje njeni postupci imaju po hiljade ljudi i društava u različitim situacijama? Može li da objasni kompleksno prirodno okruženje od kojeg svi zavisimo? Trenutno, ni najnapredniji modeli ne mogu čak ni da razlikuju poštenje od varanja. A kako bi i mogli? Pravičnost ne može da se svede na pravilo.

Spomenućemo eksperiment u kojem su se majmuni kapucini pobunili kada im čovek nije dao istu nagradu za obavljanje istog zadatka. Zbog toga možemo da zaključimo da su dostigli viši nivo evolucije od bilo koje veštačke inteligencije kada je u pitanju moral.

Iskreno govoreći, teško nam je da shvatimo kako možemo veštačkoj inteligenciji da razvijemo takav osećaj morala ako ne postoji socijalizacija i kontinuirana evolucija za koje trenutni modeli nemaju kapacitet bez ljudske obuke. Čak i u tom slučaju, možemo da govorimo samo o obuci, ali ne i o sticanju ili formiranju moralnih načela. Dakle, modeli ne postaju moralni, već samo uče veći broj pravila.

Naravno, ne možemo reći da je zbog toga veštačka inteligencija beskorisna. Ima ogroman potencijal da čini dobro, ali i loše. Zbog toga bi trebalo da ljudi koji poseduju visoke moralne vrednosti kreiraju smernice koje bismo kreirali za bilo koju opasnu tehnologiju. Uopšte nam nije potrebno da jurimo ka anarhiji veštačke inteligencije.

Hteo sam da napišem zajedljiv kraj u vezi sa poslednjim komentarom, a koji je u potpunosti zasnovan na događajima o kojima se javno pisalo. Ipak, kad sam malo bolje razmislio, shvatio sam da bih iskoristio nečiju tragediju za impresivan završetak članka i tako bih dodatno povredio one koji su u nemilim događajima učestvovali. Odustao sam od takve zamisli.

Naime, potpuno je nemoralno da se koristi bol i patnja drugih da bi se ostvarili sopstveni interesi. To je nešto što ljudi znaju, ili zna bar većina ljudi. To je nešto što veštačka inteligencija nikada neće moći da shvati.