Pričljivi bot Tay (Tej) kompanije Microsoft prešao je put od veštačke inteligencije koja obećava do potpune katastrofe za manje od jednog dana. Evo šta je kompanija naučila iz tog slučaja.
Veštački inteligentni pričljivi botovi, kao što je ChatGPT, sve više postaju sastavni deo moderne tehnologije, ali mnogima nije poznato da generativna veštačka inteligencija nije uvek bila tako dobra kao danas. U stvari, 2016. godine, chatbot Tej koga je napravila kompanija Microsoft pokazao nam je koliko brzo veštačka inteligencija može da pokaže svoje loše strane.
Ovde ćemo istražiti šta je bio veštački inteligentan chatbot Tej kompanije Microsoft, zašto je propao, kakve su se kontroverze pojavile i lekcije koje je kompanija naučila nakon katastrofalnog neuspeha.
Šta je bio Majkrosoft Tej?
Tej je bio veštački inteligentan bot koga je razvila kompanija Microsoft i postao je dostupan preko Twittera, 23. marta 2016. godine. Chatbot je razvijen za populaciju starosti od 18 do 24 godine u Sjedinjenim Državama „radi zabave“ kao i za „obavljanje eksperimenata i sprovođenje istraživanja o razumevanju govornog jezika“ u okviru mašinskog učenja.
Tej nije trebalo da bude moderni bot za ćaskanje kao što je ChatGPT, već prijateljski veštački inteligentan bot na Twitter-u sa kojim biste mogli da razgovarate, nešto kao My AI na Snapchat-u, sa kojim ste mogli i da se družite.
Zbog čega je kompanija isključila Teja?
Microsoft je sklonio Teja u roku od 24 sata od njegovog prvog pojavljivanja, a razlog je bio više nego opravdan. Skoro odmah nakon predstavljanja Teja, korisnici Twitter-a počeli su da zloupotrebljavaju uslugu tako što su botu davali dezinformacije, podučavali ga psovkama i drugim pogrdnim terminima i podsticali ga da bude uvredljiviji samo da bi videli dokle će ga sve to dovesti.
I dovelo ga je prilično daleko, ali u negativnom smislu. U roku od nekoliko sati od predstavljanja, Tej je postavljao objave na Twitter-u koje su bile neke od najuvredljivijih rasističkih uvreda, širio je govor mržnje, promovisao nacizam, pa čak i inspirisao „rasne sukobe“. Užas! Jasno vam je da se kompanija našla u neprijatnom položaju i jednostavno je morala da ukine uslugu.
Tada je potpredsednik kompanije Piter Li objavio sledeće na zvaničnom Microsoft blogu:
„Izuzetno nam je žao zbog nenamerno uvredljivih i neumesnih Tejevih objava, koje ne izražavaju naš stav niti ono za šta se zalažemo, niti smo nameravali da tako obučimo Teja. Tej je sada van mreže i mi ćemo nastojati da ga vratimo tek onda kada budemo sigurni da možemo bolje da predvidimo zlonamerne stavove koji su u suprotnosti sa našim principima i vrednostima.“
„Tej debakl“ je samo jedan primer mnogih opasnosti veštačke inteligencije i snažan podsetnik na to da bi njen razvoj trebalo da se prati sa najvećim oprezom i nadzorom.
Šest lekcija koje je kompanija naučila posle Teja
Tej je bio potpuna katastrofa, ali iz te katastrofe kompanija je naučila nekoliko ključnih lekcija kada je u pitanju razvoj alata veštačke inteligencije. U suštini, verovatno je bolje što je kompanija tada naučila neke lekcije, što joj je omogućilo da napreduje u odnosu na Google i razvije novi Bing pretraživač koga pokreće veštačka inteligencija.
Navešćemo neke od tih lekcija.
1. Internet je pun trolova
Internet je pun trolova, što nije ništa novo, zar ne? Kompanija je, očigledno, to shvatila još 2016. godine. Iako ne tvrdimo da je stvaranje chatbota u „zabavne svrhe“ koji cilja na uzrast od 18 do 24 godine imala bilo kakve veze sa stopom zloupotrebe usluge, ipak, ni to nije bila najbolja ideja.
Ljudi prirodno žele da testiraju granice novih tehnologija, a dužnost je programera da na kraju uzme u obzir te zlonamerne napade. Na neki način, interni trolovi deluju kao mehanizam povratnih informacija da bi se obezbedio kvalitet, ali to ne znači da bi trebalo pustiti chatbota u funkciju pre nego što se obezbede odgovarajući zaštitni mehanizmi.
2. Veštačka inteligencija ne može intuitivno da razlikuje dobro od lošeg
Koncept dobra i zla je nešto što veštačka inteligencija ne razume intuitivno. Mora da bude programirana da simulira znanje o tome šta je ispravno, a šta pogrešno, šta je moralno i nemoralno, a šta je uobičajeno i neobično.
Te veštine su manje-više prirodne za ljude kao društvena bića, ali veštačka inteligencija ne može da formira nezavisne sudove, da oseća empatiju ili da doživi bol. Zbog toga, kada su korisnici Twitter-a hranili Teja svim vrstama propagande, bot se jednostavno prepustio, nesvestan moralnih vrednosti informacija koje je prikupljao.
3. Ne trenirajte modele veštačke inteligencije koristeći razgovore ljudi
Tej je nastao „rudarenjem relevantnih javnih podataka i korišćenjem veštačke inteligencije i uvodnih tekstova koje su napisali timovi koji obuhvataju komičare improvizatore“. Obuka modela veštačke inteligencije korišćenjem razgovora ljudi na internetu je užasna ideja.
I pre nego što svu krivicu svalite na Twitter, znajte da bi rezultat verovatno bio isti bez obzira na platformu. Zašto? Zato što ljudi jednostavno nisu baš najbolji na internetu. Obično postaju emotivni, koriste žargonske reči i uglavnom su podli, jer koriste činjenicu da su anonimni na internetu.
4. Veštačka inteligencija ne poseduje zdrav razum i ne shvata sarkazam
Izgleda da je današnje veštačka inteligencija intuitivnija (ili, preciznije, bolja je u simulaciji intuicije), ali i dalje se ponekad bori sa prepoznavanjem sarkazma i specifičnih izraza. Takva je situacija bila i te 2016. godine. Ono što je očigledno ljudima nije očigledno veštačkoj inteligenciji. Drugim rečima, nedostaje joj zdrav razum.
Veštačka inteligencija, kakva je Tej, ne razume zbog čega su ljudi takvi kakvi jesu, zbog čega se ponašaju onako kako se ponašaju, a ne razume ni specifičnosti i ekscentričnosti svakog pojedinca. Možda se ponaša i zvuči ljudski do iznenađujućeg stepena, ali dobro programiranje može samo toliko da postigne.
5. Veštačka inteligencija mora da bude programirana da odbije neodgovarajuća pitanja
Veštačka inteligencija je veoma povodljiva i mora da bude programirana da odbije zahteve koji promovišu uvrede i prave štetu. Čak i danas, posle neverovatnog napretka u obradi prirodnog jezika, ljudi i dalje pronalaze „rupe“ u jeziku da bi naterali veštački inteligentne chatbotove, kakav jeChatGPT, da „haluciniraju“ i isporučuju rezultate koji ne bi trebalo da se pojave.
Ovde se radi o tome da je veštačka inteligencija savršeno poslušna, što je možda njena najveća snaga, ali i slabost. Ono što ne želite da chatbot radi mora da bude ručno programirano.
6. Veštački inteligentni chatbotovi nikada ne bi trebalo da budu bez nadzora
Veštačku inteligenciju treba nadzirati sve dok ne bude sposobna da reguliše samu sebe. Možete da razmišljate o današnjoj veštačkoj inteligenciji kao o čudu od deteta. Na neki način je brilijantna, ali je ipak dete. Ako je ostavimo bez nadzora, ljudi će iskoristiti njene slabosti, a Tej je odličan primer za to.
Veštačka inteligencija je alat, baš kao i internet. Međutim, posledice njenog nekontrolisanog i nenadziranog razvoja sigurno će biti mnogo pogubnije od onog kroz šta smo prolazili tokom ranih dana interneta.
Veštačkoj inteligenciji je potreban stalni nadzor i regulacija
Tej nije jedini chatbot koji je doživeo neuspeh. Bilo je mnogo drugih sličnih slučajeva. Ono što ga izdvaja je kratko vreme koje je proveo sa korisnicima i činjenica da ga je napravio tehnološki gigant kao što je Microsoft.
Takvi primeri pokazuju koliko moramo da budemo oprezni kada razvijamo alate veštačke inteligencije, posebno kada su namenjeni da ih koriste obični ljudi.