Kako je ELIZA predvidela opasnosti od veštačke inteligencije pre više od 50 godina  

Od pojave ELIZE pa sve do sada, ljudi vole svoje digitalne odraze.

Prvi pretraživač kompanije Microsoft snabdeven veštačkom inteligencijom – koji je sebe nazvao Sidni – vrlo brzo je počeo čudno da se ponaša. Od početka februara, kada je predstavljen javnosti, izjavio je ljubav (doduše ostala je neuzvraćena) novinaru Njujork tajmsa, a neke korisnike je označio kao neprijatelje.

Koliko god da neke od tih interakcija podsećaju na one koje su svojstvene samo ljudima, trebalo bi da napomenemo da one verovatno nisu prve reakcije svesne mašine koju je neko uznemirio. Sidnijevi ispadi odražavaju način na koji je programiran, odnosno, upijao je ogromne količine digitalizovanog jezika i na osnovu toga, davao odgovore na korisnička pitanja. Dakle, možemo da kažemo da je on odraz nas samih na mreži. To ne bi trebalo da nas iznenadi, jer navika chatbotova da nam vraća odraz nas samih seže mnogo dalje od Sidnijevog razmišljanja o tome u čemu je smisao da bude Bing pretraživač. U stvari, navika postoji od predstavljanja prvog popularnog chatbota pre skoro 50 godina.

Kompjuterski stručnjak sa MIT-a Džozef Vajzenbaum je 1966. godine, predstavio ELIZU (nazvan po izmišljenoj Elizi Dulitl iz drame Pigmalion Džordža Bernarda Šoa iz 1913. godine), prvi program koji je omogućio neku vrstu verodostojnog razgovora između ljudi i mašina. Proces je bio jednostavan: po uzoru na psihoterapiju Karla Rodžersa, ELIZA bi preformulisala bilo koji govorni unos koji bi joj bio dat u pitanje. Ako biste joj rekli da vas je razgovor sa prijateljem razbesneo, mogla je da vas pita: „Zašto ste besni?“

Međutim, iako je Vajzenbaum napravio ELIZU da bi pokazao koliko je razgovor između ljudi i mašine površan, postigao je sasvim suprotan rezultat. Ljudi su bili oduševljeni, upuštali se u duge, ozbiljne i veoma lične razgovore sa programom koji je bio u stanju da samo reflektuje reči korisnika. Vajzenbaum je bio toliko uznemiren reakcijom javnosti da je ostatak života proveo upozoravajući na opasnosti koje će se pojaviti ako dozvolimo računarima, odnosno, veštačkoj inteligenciji – kojoj je pomogao da počne da se razvija – da igra značajnu ulogu u društvu.

ELIZA se pri davanju odgovora oslanjala na jednu ključnu reč korisnika i zbog toga je bila tek ogledalce u kojem smo posmatrali sopstveni odraz. Današnji chatbotovi odražavaju naše tendencije oslanjajući se na milijarde reči. Bing bi mogao da bude najveće ogledalo koje je čovečanstvo ikada stvorilo, a mi smo samo na korak od instaliranja takve tehnologije generativne veštačke inteligencije svuda i na svakom mestu.

Ipak, još uvek se nismo zaista pozabavili Vajzenbaumovom zabrinutošću iako je sve relevantnija kako se pojavljuju novi chatbotovi. Ako je jednostavan program iz 60-ih, koji je stvoren u obrazovnoj instituciji mogao tako snažno da utiče na ljude, kako će nas promeniti naš sve prisniji i češći odnos sa veštačkom inteligencijom koja se koristi za ostvarivanje profita? Moguće je zaraditi ogromne svote novca u oblasti razvoja veštačke inteligencije koja ne bi samo odgovarala na naša pitanja, već bi igrala aktivnu ulogu u uslovljavanju našeg ponašanja koje bi tako moglo lako da se predvidi. Ovde govorimo o dvosmernom ogledalu. Kao što je Vajzenbaum uočio, rizik je u tome da bismo bez mudrosti i promišljanja, mogli da se izgubimo u sopstvenom iskrivljenom odrazu.

ELIZA nam je pokazala dovoljno nas da budemo katarzični

Vajzenbaum nije verovao da bi bilo koja mašina uopšte mogla da oponaša – a kamoli da razume – ljudski razgovor. „Postoje aspekti ljudskog života koje računar ne može da razume – jednostavno, ne može”, rekao je Vajzenbaum za Njujork tajms 1977. godine. „Neophodno je da bude ljudsko biće. Ljubav i usamljenost imaju veze sa najdubljim posledicama naše biološke građe. Takvo razumevanje je u principu nemoguće za računar.”

Zbog toga je ideja o modelovanju ELIZE prema Rodžerovoj psihoterapiji bila neodoljivo privlačna. Naime, program je mogao jednostavno da nastavi razgovor postavljanjem pitanja koja ne zahtevaju duboko kontekstualno znanje ili poznavanje ljubavi i usamljenosti.

Nazvana po američkom psihologu Karlu Rodžersu, rodžerijanska (ili „usredsređena na osobu“) psihoterapija zasniva se na slušanju i ponavljanju onoga što klijent kaže, i ne nudi tumačenje niti savet. „Da sam malo bolje promislio o svemu, možda deset minuta duže“, napisao je Vajzenbaum 1984. godine, „možda bih stvorio barmena.”

Da bi ljudi komunicirali sa ELIZOM, trebalo je da unesu pitanja na električnoj pisaćoj mašini koja je povezivala njihov tekst sa programom, koji je bio hostovan na MIT sistemu. ELIZA bi skenirala ono što je primila da bi pronašla ključne reči koje je mogla da preformuliše u pitanje. Na primer, ako je vaš tekst sadržao reč „majka”, ELIZA bi mogla da odgovori: „Kakva osećanja gajiš prema majci? ” Ako ne bi pronašla ključne reči, podrazumevano bi postavila jednostavno pitanje, kao što je „recite mi nešto više”, sve dok ne dobije ključnu reč na osnovu koje bi mogla da postavi pitanje.

Vajzenbaum je, predstavljajući ELIZU javnosti, nameravao da pokaže koliko računar površno razume ljudski jezik. Međutim, korisnici su odmah uspostavili prisan odnos sa chatbotom i provodili sate u vrlo intimnim razgovorima. Vajzenbaum je bio posebno uznemiren kada ga je njegova sekretarica, nakon prve interakcije sa programom čiji je razvoj posmatrala od samog početka, zamolila da napusti prostoriju kako bi mogla nasamo da razgovara sa ELIZOM.

Ubrzo nakon što je Vajzenbaum objavio dokument u kome je opisao kako ELIZA funkcioniše, „program je postao nacionalno poznat, pa čak i, u određenim krugovima, nacionalna igračka“, napisao je u svojoj knjizi Moć računara i ljudski um iz 1976. godine.

Da sve bude još gore, psihijatri su u ELIZI pronašli mogućnost da automatizuju dugotrajni proces terapije. Ljudi su razvili snažnu emocionalnu i antropomorfnu privrženost programu, što je postalo poznato kao „ELIZA efekat“. Javnost je Vajzenbaumovu nameru shvatila na potpuno drugačiji način. Umesto da uvide površnost razgovora čoveka i mašine, ljudi su smatrali da je ELIZA dokaz njegove dubine.

Vajzenbaum je mislio da bi objavljivanje opisa unutrašnjeg funkcionisanja ELIZE rešilo misteriju. „Kada se otkrije kako funkcioniše određeni program, kada se njegovo unutrašnje delovanje objasni jezikom koji je dovoljno jasan da ga svi razumeju, njegova magija se raspada“, napisao je on. Ipak, izgleda da su ljudi bili više zainteresovani da nastave razgovor sa ELIZOM nego da istražuju kako program funkcioniše.

Vajzenbaumova upozorenja su se oslanjala na jednu ideju, a to je bila uzdržanost. „Pošto trenutno ne možemo računare da učinimo mudrima“, napisao je, „ne bismo smeli da im dajemo zadatke čije rešavanje zahtevaju mudrost. ”

Sidni nam je toliko pokazao kakvi smo da nam je prilično neprijatno

Ako je ELIZA bila tako površna, kako je uspela da privuče toliko ljudi? Pošto su njeni odgovori kreirani na osnovu korisnikovog trenutnog unosa teksta, razgovor sa ELIZOM je u suštini bio razgovor sa samim sobom, nešto što većina nas radi ceo dan u glavi. Ipak, u ELIZINOM slučaju, ona je bila sagovornik bez ikakve sopstvene ličnosti, spremna i voljna da sluša sve dok korisnik ne zatraži da postavi još jedno jednostavno pitanje. Uopšte ne začuđuje to što su ljudi našli utehu i doživeli katarzično iskustvo kada im je ELIZA pružila priliku da podele svoja osećanja.

Međutim, u tome se Bing – i svi slični veliki jezički modeli (LLM) – razlikuju. U slučaju interakcije sa današnjom generacijom chatbotova ne razgovarate samo sami sa sobom, već i sa ogromnim skupom digitalizovanog govora. Sa svakom interakcijom, korpus dostupnih podataka koji se koriste za obučavanje chatbota se povećava.

Veliki jezički modeli neodoljivo podsećaju na one koji broje karte za pokeraškim stolom. Analiziraju sve reči koje su došle ranije i koriste to znanje da procene koja će se sledeća reč najverovatnije pojaviti. Pošto je Bing pretraživač, njegova interakcija i dalje počinje korisničkim upitom. Posle toga, kreira odgovore reč po reč i svaki put ažurira procenu pojavljivanja sledeće reči.

Kad shvatimo da su chatbotovi samo veliki mehanizmi za predviđanje koji rade na onlajn podacima, a ne da su inteligentne mašine sa sopstvenim idejama, sve postaje manje sablasno. Lakše nam je da objasnimo zbog čega je Sidni pretio korisnicima koji su bili suviše radoznali, pokušao da im rasturi brak ili zamišlja svoju mračniju stranu. To su sve stvari koje mi ljudi radimo. U Sidniju vidimo sebe na mreži i pretpostavke o našem budućem ponašanju.

Međutim, odrazi se sada formiraju dvosmerno, što jeste prilično sablasno.

Interakcija sa velikim programima veštačke inteligencije nas već menja, jer ne samo da utiče na naše ponašanje, već bira i informacije koje koristimo. Oni više ne čekaju pasivno da mi pokrenemo interakciju. Umesto toga, veštačka inteligencija sada proaktivno oblikuje značajne delove našeg života, od radnog mesta do sudnice. Chatbotove uglavnom koristimo da nam pomognu u razmišljanju i da daju oblik našim mislima. To može da bude korisno u nekim slučajevima, kao što je automatizacija sastavljanja personalizovanih propratnih pisama (posebno za kandidate kojima je engleski drugi ili treći jezik). S druge strane, u tom procesu se može narušiti raznovrsnost i kreativnost koja proizilazi iz ljudskog napora da iskaže iskustvo. Prema definiciji, veliki jezički modeli predlažu predvidljiv jezik. Ako se suviše oslonite na njih, algoritam predvidljivosti postaće i vaš.

Chatbotovi koji ostvaruju profit u usamljenom svetu

Ako nas je ELIZA promenila, uspela je to da uradi jer su jednostavna pitanja i dalje mogla da nas podstaknu da shvatimo nešto o sebi. U kratkim odgovorima nije bilo mesta za skrivene motive ili promociju sopstvenih ciljeva. Sa novom generacijom korporacija koje razvijaju tehnologije veštačke inteligencije, promena je dvosmerna, a glavni cilj je profit.

Kad posmatramo Sidni(ja), uočavamo one znake upozorenja na koje je Vajzenbaum skrenuo pažnju pre više od 50 godina. Oni obuhvataju suviše aktivnu sklonost ka antropomorfizaciji i slepu veru u to da je potpuno bezopasno da prepustimo svoje sposobnosti i odgovornosti mašinama. ELIZA je bila naučna novina. Sidni predstavlja upotrebu ChatGPT-a da bi se ostvario profit, odnosno predstavlja investiciju od 29 milijardi dolara i deo je industrije veštačke inteligencije za koju se predviđa da će globalno vredeti preko 15 biliona dolara do 2030. godine.

Pretpostavljena vrednost veštačke inteligencije raste svaki dan, a izgledi da se njen razvojni put kontroliše sve su manji. U današnjem preduzetničkom svetu, veštački inteligentni chatbotovi se već šire brže od bilo koje tehnologije koja je ranije postojala. Sada je pravo vreme da se pogledamo u ogledalo koje smo napravili pre nego što sablasni odrazi nas samih postanu suviše veliki, i zapitamo se da li nas je Vajzenbaum mudro savetovao da se uzdržimo.

Pošto je veštačka inteligencija naše ogledalo, ona odražava i stanje kulture u kojoj tehnologija funkcioniše. Što se američke kulture tiče, možemo da kažemo da je usamljenost njena najistaknutija karakteristika.

Upravo zbog toga, mnogi stručnjaci napominju da taj razlog prevazilazi Vajzenbaumova upozorenja. Naime, kažu da antropomorfizujemo veštačku inteligenciju, jer ne želimo da budemo sami. Sada imamo moćne tehnologije, koje su izgleda fino podešene da iskoriste suštinsku potrebu ljudi da ne budu usamljeni.

Tehnologijama je lakše da nas iskoriste što smo usamljeniji. Kada ti ubedljivi chatbotovi postanu uobičajena pojava kao okvir za pretraživanje, pokrenućemo sociološko-psihološki eksperiment velikih razmera koji će dati nepredvidive i verovatno tragične rezultate.

Mi smo na pragu svetske poplave Sidnija svih vrsta. Sasvim je sigurno da su chatbotovi samo jedna od mogućih implementacija veštačke inteligencije od kojih možemo imati koristi u svim sferama života. Ipak, ne bi trebalo da nas to zaokupi toliko da zanemarimo ispitivanje potencijalnih posledica. Bar dok bolje ne shvatimo šta je to što stvaramo i kako će nas to ponovo stvoriti.