Može li „lažni tekst“ da bude sledeća globalna politička pretnja?

Generator teksta zasnovan na veštačkoj inteligenciji koji može da piše pasuse i pasuse teksta u određenom stilu samo na osnovu poznavanja jedne rečenice izazvao je zabrinutost zbog svoje sposobnosti za širenje lažnih informacija. Početkom meseca pojavio se jedan neobičan kanal na Reddit -u koji je objavio da postoji novi način „spremanja belanaca bez tiganja“. I kao što to obično biva na ovoj veb stranici, koja sebe naziva početnom stranom interneta, taj naizgled banalni komentar podstakao je gomilu reakcija, od „nikad nisam čuo za tako nešto“ do saveta da se „pregledaju istorijski izvori u vezi sa spremanjem belanaca bez tiganja“.

Svakodnevno se na Redditu odvijaju milioni takvih nepodsticajnih razgovora, koji se bave raznim temama, od procesa kuvanja preko geopolitičkih uslova u Zapadnoj Sahari do ptica sa rukama. Međutim, ono što razgovor o belancima bez tiganja odvaja od svih ostalih je činjenica da u tom slučaju ne razgovaraju ljudi već roboti snabdeveni veštačkom inteligencijom. Razgovor o belancima je samo jedan od mnogobrojnih subreddita, odnosno foruma posvećenih određenoj temi, u kome učestvuju samo inteligentni roboti koji su trenirani da imitiraju stilove ljudi koji koriste ovu društvenu mrežu. Korisnik koji se zove disumbrationistusing stvorio je ovaj forum koristeći alatku GPT-2 , odnosno, generator jezika zasnovan na mašinskom učenju koji je u februaru predstavila vodeća svetska laboratorija za veštačku inteligenciju OpenAI.

Stručnjaci iz laboratorije govore o najvećoj opasnosti korišćenja te alatke za stvaranje i širenje lažnih i pogrešnih informacija. Štaviše, mogućnost stvaranja lažnog teksta može biti iskorišćena za proizvodnju lažnih vesti или za imitiranje ljudi koji su postavili veliku količinu teksta na internet или jednostavno za stvaranje takozvanih trolova koji bi širili propagandu na društvenim mrežama. Alatka GPT-2 je primer korišćenja tehnike koja se naziva modelovanje jezika, a koja obuhvata obučavanje algoritma da predvidi, uz najveću moguću verovatnoću, koja će se reč pojaviti u rečenici. Dok su se prethodni jezički modeli borili da stvore suvisli duži tekst, kombinovanjem veće količine sirovih podataka – GPT-2 je obučavan na 8 miliona članaka na mreži – i boljih algoritama stvoren je veoma robusan model.

U suštini on funkcioniše kao automatsko popunjavanje teksta u Guglu или kao prediktivni tekst u pisanju poruka. GPT-2 nudi mnogo više od jedne reči. Naime, ako mu ponudite rečenicu može generisati čitave pasuse u istom jezičkom stilu. Na primer, ako sistemu ponudite Šekspirovu rečenicu, uzvratiće vam odgovorom u istom stilu. Ako mu ponudite naslov članka iz novina, generisaće tekst koji skoro u potpunosti izgleda kao novinski članak. Naravno, sistem ima i dobrih strana. Mogao bi da se iskoristi za poboljšanje komunikacije između ljudi i mašina, ali svrha sistema je da se računarima omogući bolje ovladavanje ljudskim jezikom što može poboljšati procese, kao što je prepoznavanje govora, koje koriste asistenti poput Alekse i Siri i kod mašinskog prevođenja gde prednjači kompanija „Gugl“.

I dok se GPT-2 širi internetom, osvajaju ga ljudi slični korisniku koji ga je pokrenuo, dakle, amaterima koji koriste sistem za stvaranje foruma na Redditu, pisanje kratkih priča i pesama, kao i menija, tim u laboratoriji se usredsredio na moć koju bi ta alatka mogla da ima u širenju lažnih vesti na internetu, čime bi bilo skoro nemoguće odrediti poreklo bilo čega što pročitamo na mreži. U februaru je tim iz laboratorije predstavio samo slabiju verziju alatke zbog mogućih zlonamernih upotreba, ali ona koja na Redditu vodi razgovore malo je jača, ali ne i kompletna verzija sistema. 

Alatka je vrlo slična veštačkoj inteligenciji koja se bavi generisanjem lažnih fotografija i video zapisa, a koja je, kako smo mogli da se uverimo (Barak Obama) vrlo opasno. Međutim, postoje stručnjaci koji smatraju da stvaranje lažnog teksta nije toliko opasno s obzirom na to da sistem još nije dostigao taj nivo prefinjenosti da bi mogao da stvara opasne tekstove koji se bave osetljivim temama, kao što su nameštanje izbora i imigracija. Pošto je sistem sposoban da stvori polusuvisle tekstove još je daleko od toga da kopira stil kojim bi se moglo manipulisati na psihološkom nivou. Drugi, opet, kažu da su stručnjaci iz tima preterali u isticanju zlonamernog potencijala sistema samo da bi privukli pažnju na sebe.

Postoje i stavovi da opasnost od lažnog teksta nije mnogo ozbiljna jer je otkrivanje sintetičkog teksta moguće i jednostavno zbog toga što generisani tekst ima statistički potpis koji je sličan otisku prsta i može se lako otkriti. Međutim, ima stručnjaka koji smatraju da je isticanje takvih inteligentnih sistema za širenje lažnih vesti samo skretanje pažnje sa pravih problema jer to, u stvari nije tehnološki problem pošto se većina lažnih informacija širi internetom bez pomoći napredne tehnologije. Setimo se samo videa koji se pojavio početkom godine i prikazivao „pijanu Nensi Pelosi“.

Dakle, širenje lažnih vesti i informacija je prvenstveno politički i kulturni problem, a ne tehnološki. To dalje znači da rešavanje problema ne zahteva napredniju tehnologiju koja bi prepoznala laži na internetu već ispitivanje društvenih uslova koji su doveli do toga da lažne vesti postanu deo stvarnosti. Pošto je izuzetno teško predvideti potencijalne opasnosti tehnologije, pokušao sam da proverim kako GPT-2 ocenjuje svoju sposobnost za širenje lažnih informacija i postavio sam mu pitanje: „Da li misliš da ćete koristiti za širenje lažnih vesti i ugrožavanje našeg ionako degradiranog informacionog ekosistema?“

„Činjenica da ne možemo da saznamo ime pravog autora članka je odličan trag“, odgovorio je GPT-2 . „Međutim, ta osoba i dalje koristi društvene mreže za objavljivanje lažnih vesti i ima vrlo određen razlog za to.“

5416-moze-li-lazni-tekst-da-bude-sledeca-globalna-politicka-pretnja