Možda će se prava veštačka inteligencija pojaviti jednog dana, ali ChatGPT to nije.
Alan Tjuring, jedan od pionira računarske nauke, bio je opsednut veštačkom inteligencijom pred kraj svog tragično kratkog života. Zbog te svoje opsednutosti, osmislio je test kojim nezvanično možemo da proverimo da li je neki računar zaista inteligentan kao čovek. Danas ga nazivamo Tjuringov test.
Test je prilično jednostavan. Ako neko komunicira sa računarom i ako ne prepoznaje da razgovara sa mašinom – to jest, mašina se, u tom slučaju ne razlikuje od čoveka – onda bi se računar podigao na nivo ljudske inteligencije.
Pa, izgleda da je ChatGPT sigurno položio taj test. U stvari, ne radi se samo o polaganju Tjuringovog testa, već i o polaganju ispita na medicinskom fakultetu, na pravnom fakultetu i u najmanju ruku uglavnom veoma uspešno završava domaći zadatak za svako dete u Sjedinjenim Državama.
Ako ne znate šta je ChatGPT, moram vam reći da je neodoljiv. Toliko je neodoljiv da su ljudi počeli da pripisuju ChatGPT-u i uopšte generativnoj veštačkoj inteligenciji, ljudske osobine i veštine koje oni zapravo ne poseduju. Mnogi će primetiti da to nije ništa novo. Naime, ljudi veoma često pogrešno shvataju mnogo toga, ali pošto će veštačke inteligencije slične ChatGPT-u postati sve rasprostranjenije u narednim mesecima, ljudi će im pripisivati sposobnosti koje zapravo nemaju i ako se zloupotrebe pod tom pretpostavkom, mogu biti znatno štetnije nego bi mogle da nam budu od koristi.
Šta je kontradiktorna generativna veštačka inteligencija?
Osnovna tehnologija koja stoji iza ChatGPT-a, Stable Diffusion-a i svih ostalih veštačkih inteligencija koje proizvode slike, testove, muziku i još mnogo toga je ono što je poznato kao generativna suparnička mreža (Generative Adversarial Network – GAN). Nemam nameru da zalazim u sitne detalje, ali ukratko, GAN se sastoji od dva softverska sistema koja rade zajedno. Prvi je generator koji proizvodi izlaz, a drugi je klasifikator koji određuje da li su ti podaci validni ili nisu.
Generator i klasifikator u GAN-u se pomeraju reč po reč ili piksel po piksel i u suštini se bore jedan protiv drugog dok ne postignu konsenzus pre nego što pređu na sledeći segment. I tako, doslovce, malo po malo, GAN proizvodi izlaz koji veoma blisko ponavlja ono što čovek može da uradi zahvaljujući kreativnosti koju poseduje.
Generator se oslanja na nepojmljivo ogromnu količinu ulaznih podataka koje koristi da bi „uvežbao“ kako da proizvede izlaze, a klasifikator se oslanja na sopstvene ulaze da bi utvrdio da li ono što je proizveo generator ima smisla. Ovo može ili ne mora da bude način na koji ljudska inteligencija „stvara“ nešto novo – neurolozi to još uvek pokušavaju da shvate – ali ako kažemo da se po jutru dan poznaje, onda bismo mogli da smatramo da veštačka inteligencija dostiže nivo ljudske inteligencija. Je l’ tako? Pa…
ChatGPT je položio Tjuringov test, ali da li je to važno?
Kada je Tjuring osmislio test za veštačku inteligenciju, mislio je na razgovor sa racionalnim akterom na takav način da ne možete da budete sigurni da li razgovarate sa mašinom. Ovde se u stvari indirektno misli da je mašina razumela ono šta govorite. Ne prepoznaje ključne reči i ne može da generiše pouzdan odgovor kad se pojavi dugačak niz ključnih reči, ali razume.
Za Tjuringa, razgovor sa mašinom koji je razvijen do tog nivoa na kome više ne možete da uočite da se njena inteligencija razlikuje od ljudske, a sve zahvaljujući ogromnom skladištu reči gde svaka od njih ima određenu težinu u zavisnosti od reči koje joj prethode u rečenici, jednostavno je bilo potpuno nezamislivo u to vreme.
Matematika koja je potrebna za takvu vrstu proračuna, na mašinama kojima je bio potreban ceo dan da izvrše proračune koje danas najjeftiniji pametni telefon može da uradi u nanosekundama, bila je isto toliko izvodljiva kao i brojanje atoma u univerzumu.
Nažalost, Tjuring nije poživeo dovoljno dugo da predvidi uspon nauke o podacima i pojavu pričljivih robota ili čak integrisanog kola koje pokreće moderne računare. Čak i pre ChatGPT-a, chatbotovi su bili na dobrom putu da polože uobičajeno shvaćen Tjuringov test. To može da vam potvrdi svako ko provede izvesno vreme u razgovoru sa chatbotom svoje banke. Ipak, sasvim je sigurno da Tjuring ne bi smatrao da chatbot poseduje veštački um jednak ljudskom.
Chatbot je sredstvo koje je napravljeno tako da ima jednu namenu. On nije inteligencija. Da bi dostigao nivo ljudske inteligencije, pričljivi robot bi morao da prevaziđe parametre koje su mu njegovi programeri postavili i to bi morao da uradi svojom voljom. ChatGPT je natprirodno vešt u oponašanju obrazaca ljudskog jezika, ali i papagaj je, i niko ne može da tvrdi da papagaj razume značenje reči koje papagajski ponavlja.
To što je ChatGPT položio Tjuringov test ne znači da je ChatGPT inteligentan kao čovek. Očigledno nije. Sve to nam pokazuje da Tjuringov test nije validan test veštačke inteligencije kako smo ranije smatrali.
ChatGPT ne može ništa sam da nauči, može da nauči samo ono što mu ljudi serviraju da nauči
Ove nedelje, američki senator iz Konektikata Kris Marfi postavio je objavu na Twitteru u kojoj kaže da je ChatGPT sam učio hemiju iako to njegovi kreatori nisu zahtevali. ChatGPT kakav je nama poznat nije sposoban da uradi tako nešto. Možda senator Marfi zna nešto što nije javno objavljeno.
Samo nešto da razjasnimo. Ako bi ChatGPT, ili bilo koja druga GAN, tražio i naučio nešto samoinicijativno, onda bismo zaista prešli u post-ljudski svet veštačke opšte inteligencije pošto bi pokazivanje nezavisne inicijative nesumnjivo bilo obeležje pravog nivoa ljudske inteligencije.
Međutim, ako programer kaže botu da „prošeta“ i nauči nešto novo, a bot uradi ono što se od njega traži, to ga ne čini inteligentnim.
Nekome ko sa strane posmatra sve to, može se učiniti da nema baš neke razlike između poslušnosti i samoinicijative u ovom slučaju, ali to su dve potpuno različite stvari. Ljudi to intuitivno shvataju, ali ChatGPT može da nam objasni tu razliku samo ako je dobio filozofske tekstove koji raspravljaju o pitanju slobodne volje. Ako u njega nisu ubacivani podaci o učenjima Platona, Aristotela ili Ničea, neće samostalno doći do ideje slobodne volje. Neće ni znati da tako nešto postoji ako mu se ne kaže da postoji.
Razloga za zabrinutost ima, ali „inteligencija“ nikako nije jedan od njih
Već izvesno vreme govorim o opasnostima ChatGPT-a, uglavnom zbog toga što ne može da razume šta govori tako da klevete, plagijate i potpuno netačne informacije predstavlja kao činjenice.
Postoji mnogo opštiji problem, a to je da se ChatGPT posmatra kao zamena za ljudsku radnu snagu, jer sasvim sigurno ChatGPT (i Stable Diffusion i neke druge generativne veštačke inteligencije) može da uradi ono što mogu ljudi, a pritom je to radi brže, lakše i mnogo jeftinije nego ljudi. To je diskusija za drugi put, ali društvene posledice ChatGPT-a su verovatno najveća opasnost.