Ako veštačka inteligencija ne zna šta radi, ima li nade da mi to objasnimo?

Zahvaljujući veštačkoj inteligenciji, raspolažemo svetom moćnih i korisnih, ali potpuno nedokučivih sistema. Ne znamo zašto donose baš takve odluke, a ne znaju ni oni.

Činjenica je da veštačka inteligencija ne razume posao koji obavlja. Zbog toga je i cilj – da je nateraju da misli kao ljudi – potpuno neostvariv. To nas dovodi do drugog problema, koji je otvorio veliku oblast istraživanja, poznatu kao Objašnjiva veštačka inteligencija.

Neuronske mreže ne samo da ne znaju šta rade kada nešto rade, već uopšte ne mogu da objasne svojim stvaraocima ili korisnicima zašto su donele baš takvu odluku. One su crna kutija ili, drugim rečima, one su tvrdoglavo nedokučive ako pokušamo konceptualno da razumemo njihove odluke ili zaključke. Šta to znači?

To znači, na primer, da, pri obavljanju postupka prepoznavanja slika, kao što je prepoznavanje lica, mreža ne može da objasni zašto je mislila da je neko kriminalac (jer izgleda kao neko na fotografiji u kriminalističkoj laboratoriji), ili zašto je autonomni automobil odlučio da biciklistu svrsta u strani i neproblematičan objekat.

Neuronske mreže su nam ponudile izuzetno veliki alat za obavljanje važnih zadataka, ali morali smo da sklopimo faustovski ugovor. Dakle, mi generalno ne smatramo da sistemi zapravo nešto znaju (poenta veštačke inteligencije). Čak i ako nešto znaju, ne možemo da ih pitamo šta znaju ili zašto su nešto uradili. Imamo svet moćnih i korisnih, ali potpuno nedokučivih sistema.

Trenutna vrhunska tehnologija može da ima ozbiljniji problem

Naša trenutna vrhunska tehnologija veštačke inteligencije suočava se sa ozbiljnijim problemom, a to su neuronske mreže. Celokupno mašinsko učenje, a neuronske mreže su njegov deo, podrazumeva upoznavanje sa prethodnim primerima u cilju učenja. Kompanije OpenAI i Microsoft su rešile taj problem „prethodnih primera” sa ChatGPT-om tako što su ga mudro povezale sa pretraživačem Bingom. Međutim, tu se stvara zbrka. Naime, osnovni veliki jezički modeli koriste rezultate pretraživača, ali nisu obučavani na njima. Zbog toga, model ne „uči” neprestano kao ljudski um, već primenjuje prethodno obučeni model na informacije prikupljene sa veba.

Pristalice ističu da „učenje u kontekstu” rešava taj problem, ali ako pažljivije pogledamo, videćemo ograničenja takvog postupka, jer se ne dolazi do ažuriranja snage različitih čvorišta obučenog modela.

Razlika između spomenute tehnologije i ljudskog mozga najbolje se uočava kada se razmatra u širem smislu inovacija, odnosno kada govorimo o stvaranju nečeg novog ili osmišljavanju istinski nove teorije ili ideje. Obuka na prethodnim primerima znači da je znanje koje je dostupno sistemu već otkriveno i zapisano. Dakle, kako sistem može da smisli nešto, bilo šta novo? Problem zavisnosti od podataka proganja ChatGPT na isti način na koji proganja i mašinsko učenje uopšte.

Iako računarski stručnjaci taj problem zavisnosti od podataka obično ne nazivaju indukcijom, to, u stvari, jeste indukcija. Na taj problem se nadovezuje sledeći, a to je da naučnici, matematičari i filozofi vekovima znaju da indukcija sama po sebi nije adekvatna za određivanje prave inteligencije. Treba je kombinovati sa drugim oblicima zaključivanja, kao što je dedukcija, i mnogo manje poznatim tipom koji se naziva abdukcija ili generisanje hipoteze.

Može li veštačka inteligencija da zaključuje o uzroku na osnovu poznatih posledica?

Abdukcija vodi poreklo još od Aristotela, koji je razvio silogizam: Svi ljudi su smrtni, Sokrat je ličnost, dakle Sokrat je smrtan (i dalje poznat po svom originalnom latinskom nazivu, modus ponens). To je primer grubog uzročnog zaključivanja, gde razmišljamo od uočene posledice da bismo došli do verodostojnih uzroka. Pošto je većina sveta koji nas okružuje nekako uzročno povezana – automobil se nije samo zaustavio, već su mu u tome pomogle kočnice, a kočnice stvaraju hidraulički pritisak, koji putuje do kočione čeljusti na točku – tako generalno naši ljudski umovi sve vide. Neuronske mreže nemaju pojma o tim drugim vrstama zaključivanja, tako da nikako ne mogu da budu na putu ka razvoju opšte inteligencije. To već znamo, ali, začudo, retko kad, ili nikad se to ne saopštava široj javnosti.

ChatGPT je fora. Trenutno.

Grupa naučnika iz ogranaka Google Research i Google Brain i jedan naučnik sa Univerziteta u Torontu su 2017. godine, predstavili izuzetno genijalan rad na Konferenciji o obradi neuronskih informacionih sistema (Neural Information Systems Processing – NIPS) u Long Biču u Kaliforniji. Rad, koji predstavlja primer čiste genijalnosti, isprva je polako, a zatim vrlo odlučno utro put ka onome što sada poznajemo kao velike jezičke modele. Oni predstavljaju veoma velike sisteme neuronskih mreža koji provlače ogromne količine teksta da bi generisali novi tekst.

Novina predstavljena u radu nazvana je „samopažnja” ili jednostavno „mehanizam pažnje”, a detalji su suviše komplikovani da bismo ih podrobnije objašnjavali. Mehanizam pažnje koji su opisali omogućio je nastanak nove generacije jezičkog prevodilaštva, klasifikacije teksta, sumiranja teksta i chat botova ili konverzacione veštačke inteligencije koju danas koristimo. Možda će čak i značajno poboljšati pretraživanje veba, koje je u posedu kompanije Google već odavno. Kompanija je, što je moglo i da se očekuje, predstavila sopstvenu verziju ChatGPT-a pod nazivom Bard.

Stagnacija na putu ka istinskoj inteligenciji

Iz svih tih rasprava kao zaključak se nameće to da je na površini veštačka inteligencija napredovala velikim koracima, ali ako malo podrobnije istražite, videćete da se u stvari zaglavila i stala. Inovacije za napredak neuronskih mreža su hvale vredne, ali šira vizija veštačke inteligencije koja treba da dostigne nivo opšte veštačke inteligencije je već sad samo pusti san. U stvari, ceo 21. vek se može smatrati periodom smelih inovacija u određenom delu veštačke inteligencije (mašinskom učenju), kao i periodom stagnacije na putu ka istinskoj inteligenciji.

Navešćemo jedan očigledan primer. Zbog toga što smo se usredsredili na duboke neuronske mreže, autonomni automobili, koji su bili glavna tema razgovora 2016. godine, uglavnom su nestali iz današnje rasprave. Jedna je stvar ako se pogrešno klasifikuje slika ili lice, ili kada veliki jezički model počne da halucinira, ili kada ChatGPT izmisli smešan ili besmislen odgovor, jer postoji neka čudna praznina u podacima na kojima je obučavan ili zbog toga što uopšte ne zna šta govori. Sasvim je drugo kada se potpuno autonomno vozilo teško preko tone zabije u školski autobus, misleći da je to nadvožnjak, ili ubije biciklistu, ili misli da je znak za ograničenje brzine znak za zaustavljanje.

Preterano oduševljenje i reklamiranje autonomnih vozila je zamrlo upravo zato što, kako je sam Ilon Mask rekao 2021. godine: „Generalizovana autonomna vožnja je težak problem, jer zahteva od veštačke inteligencije da rešava odnose i dešavanja u stvarnom svetu. Nisam očekivao da će biti tako teško, ali problemi su se mogli uvideti već na samom početku.” Zatim je dodao: „Nigde ne možemo da pronađemo toliko nivoa slobode kao u stvarnosti. I tu leži problem.”

Pitanje je šta dalje. Odgovor je, s jedne strane, očigledan. Računarski stručnjaci, kao zajednica, ne treba dalje da razmišljaju o dodatnim inovacijama za sisteme neuronskih mreža. To je već urađeno. Kompanija. OpenAI, koja je napravila ChatGPT, objavila je poslednju verziju velikog jezičkog modela, GPT 4, sa preko bilion parametara. Obučen je na milijardama reči (tokena), što dostiže gigabajte teksta.

To, između ostalog, znači da samo obučavanje modela te veličine korišćenjem mehanizma pažnje i neuronske mreže u osnovi zahteva mnoštvo računara opremljenih GPU-om, što je van dometa naučnika i inženjera koji ne dobijaju ogromna finansijska sredstva od vlasnika rizičnog kapitala. Potraga za veštačkom inteligencijom postala je isključivi domen samo veoma bogatih institucija. Međutim, inovacije se obično pojavljuju na različitim mestima, univerzitetima sa bogatom istorijom i laboratorijama, ili su rezultat promišljanja radoznalih ljudi ili grupe naučnika koji nemaju novca, ali imaju zajednička interesovanja i strasti.

Srećom, mnogi istaknuti naučnici su počeli da raspravljaju o ograničenjima i da ih ističu. To daje nadu da bi nove i različite ideje mogle da počnu da pristižu iz različitih izvora. Takve inovacije bi konačno mogle da daju računarima zdrav razum, i to nesumnjivo proširivanjem vrsta zaključivanja koje mogu da izvode. To je sve vreme bila vizija napretka u veštačkoj inteligenciji. Ne treba nam veštačka inteligencija velikih podataka, već prava veštačka inteligencija. Sada je vreme da se nastavi sa razvojem takve veštačke inteligencije.