Alati za proveru onlajn sadržaja ne rade i to je veliki problem

Želite da proverite da li je nešto stvorila veštačka inteligencija? Alati koji bi trebalo da utvrde da li je neki sadržaj delo veštačke inteligencije često ne rade i to je loša vest za našu bezbednost.

Hteli mi to ili ne, veštačka inteligencija će transformisati kompletne segmente našeg društva, a to uključuje i World Wide Web.

Zbog postojanja softvera, kao što je ChatGPT, koji je dostupan svima koji imaju internet vezu, sve nam je teže da razlikujemo sadržaj koga je stvorila veštačka inteligencija od onog koga je stvorio čovek. Dobro je što imamo alate koji će nam u tome pomoći, zar ne?

Da li alati za otkrivanje veštački inteligentnog sadržaja rade?

Takozvani detektori za otkrivanje veštački inteligentnog sadržaja su specijalizovani alati koji određuju da li je nešto napisao računarski program ili čovek. Ako u Google pretraživač unesete izraz „detektor AI sadržaja“, videćete da postoji na desetine alata za koje se tvrdi da mogu pouzdano da razlikuju tekst kojeg je stvorio čovek od onog kojeg je napravila mašina.

Oni funkcionišu na veoma jednostavan način. Treba samo da nalepite odlomak teksta da bi vam alatka odgovorila da li ga je generisala veštačka inteligencija ili ljudsko biće. Na nekom malo stručnijem nivou možemo da kažemo da ti alati, koristeći kombinaciju tehnika obrade prirodnog jezika i algoritama mašinskog učenja, traže obrasce i predvidljivost i na osnovu toga formiraju odgovore.

Sve to zvuči sjajno u teoriji, ali ako ste bilo kada koristili alatke za otkrivanje sadržaja koga je napravila veštačka inteligencija, dobro vam je poznato da su, blago rečeno, potpuni promašaj. Suviše često se dešava da ti alati detektuju sadržaj koga je napisao čovek kao delo veštačke inteligencije ili tekst koga su kreirala ljudska bića kao kreaciju veštačke inteligencije. U stvari, neki izuzetno loše obavljaju zadatak koji im je zadat.

Koliko su precizni alati za otkrivanje veštački inteligentnog sadržaja?

Ako ste u Sjedinjenim Državama, prvi rezultat Google pretraživanja pojma „detektor AI sadržaja“ je writer.com. Ta stranica je nekad bila poznata kao Qordoba, odnosno, platforma za stvaranja veštački inteligentnog sadržaja koja takođe ima i alat za otkrivanje takvog sadržaja. Kada smo nalepili deo nasumično izabranog članka iz Asošijeted presa u alatku, dobili smo odgovor da postoji velika šansa da ga je generisala veštačka inteligencija.

Dakle, platforma writer.com je sve pogrešno shvatila.

Ipak, moramo da napomenemo da ni mnoge druge slične alatke nisu ništa bolje. Ne samo da pružaju lažne pozitivne rezultate, već označavaju sadržaj koga je napravila veštačka inteligencija kao delo čoveka. Pored toga, ako unesete sitne promene u tekst koga je generisala veštačka inteligencija, sasvim je sigurno da će proći kao ljudska tvorevina.

U februaru 2023. godine, dva predavača sa poznatih australijskih univerzitet testirali su brojne popularne alate za utvrđivanje porekla sadržaja i utvrdili da nijedan od njih nije pouzdan. U analizi, koju su objavili u časopisu The Conversation, zaključili su da će tekuća trka između generatora teksta i detektora predstavljati značajan izazov u budućnosti, posebno za prosvetne radnike.

Međutim, nemaju samo profesori i nastavnici razloga za zabrinutost. Trebalo bi svi da budu zabrinuti. Pošto se tekstovi koje je generisala veštačka inteligencija nalaze svuda, biće nam sve teže da napravimo razliku između onoga što je „stvarno“ i onoga što nije. To će imati ogroman uticaj na praktično sve oblasti privrede i društva, čak i na lične odnose.

Uticaj veštačke inteligencije na sajber bezbednost i privatnost

Činjenica da ne postoje pouzdani mehanizmi za utvrđivanje da li je nešto kreirao softver ili ljudsko biće ima ozbiljne posledice na sajber bezbednost i privatnost.

Zlonamerni akteri već koriste ChatGPT da bi napisali zlonamerni softver, generisali phishing napade e-porukama, stvarali neželjenu poštu, kreirali veb-stranice za prevare i još mnogo toga. Iako postoje metodi za odbranu od svega toga, svakako nas zabrinjava to što ne postoji softver koji može pouzdano da razlikuje delo ljudske inteligencije od dela veštačke inteligencije.

Lažne vesti, takođe, već predstavljaju ogroman problem. Kreatori dezinformacija uz pomoć generativne veštačke inteligencije u stanju su da budu aktivniji i kreativniji nego bilo kada pre. Istovremeno, prosečni korisnik nema na raspolaganju nijedan metod koji bi mogao da mu kaže da li je nešto što čita na mreži kreirao softver ili ljudsko biće.

Privatnost je nešto sasvim drugo. Uzmimo, na primer, ChatGPT. Pre nego što je objavljen, uneto je više od 300 milijardi reči. Taj sadržaj je preuzet iz knjiga, objava na blogovima i forumima, članaka i društvenih mreža. Sve to je prikupljeno bez bilo čije saglasnosti, uz naizgled potpuno nepoštovanje privatnosti i zaštite autorskih prava. Zatim postoji i pitanje lažnih pozitivnih rezultata. Ako je sadržaj greškom označen kao generisan veštačkom inteligencijom, zar to ne bi moglo da dovede do cenzure, što je ionako veliki problem? Da ne spominjemo štetu koja bi mogla da se nanese reputaciji neke osobe ako je alat za detekciju optuži da je koristila tekst, kako na mreži, tako i u stvarnom životu, koga je kreirala veštačka inteligencija.

Ako zaista postoji trka između generativne veštačke inteligencije i detektora sadržaja, moramo da priznamo da veštačka inteligencija odnosi pobedu. Da sve bude još gore, izgleda da nema rešenja. Svi imamo neke nezavršene proizvode koji čak ni pola vremena ne rade, ili mogu vrlo lako da budu prevareni.

Kako da otkrijemo veštački inteligentan sadržaj: moguća rešenja

Ako nam se trenutno čini da nemamo prava rešenja za ovaj problem ne znači da ih nećemo imati u budućnosti. U stvari, već postoji nekoliko ozbiljnih predloga koji bi mogli da funkcionišu. Vodeni žig je jedan od njih.

Kada su u pitanju modeli veštačke inteligencije i veliki jezički modeli, vodeni žig se odnosi na ugrađivanje svojevrsnog tajnog koda u tekst koga je generisala veštačka inteligencija (npr. rečnički obrazac, interpunkcijski stil). Takav vodeni žig ne bi bio vidljiv golim okom, a samim tim bi ga bilo skoro nemoguće ukloniti, ali bi specijalizovani softver mogao da ga otkrije.

U stvari, još 2022. godine, istraživači sa Univerziteta Merilend razvili su nov metod postavljanja vodenog žiga za veštačke neuronske mreže. Vodeći istraživač tog projekta rekao je tada da je njegov tim uspeo da „matematički dokaže“ da njihov vodeni žig ne može da bude potpuno uklonjen.

Za sada, prosečan korisnik može samo da se osloni na svoje instinkte i zdrav razum. Ako nešto nije u redu sa sadržajem koji čitate – ako vam se čini da je neprirodan, da ima mnogo ponavljanja, da je nemaštovit ili banalan – možda ga je kreirao softver. Naravno, trebalo bi da proverite i sve informacije koje vidite na mreži, još jednom proverite izvor i klonite se sumnjivih veb-stranica.

Revolucija veštačke inteligencije je u toku

Neki tvrde da je peta industrijska revolucija već u punom zamahu, jer veštačka inteligencija zauzima centralno mesto u onome što se opisuje kao konvergencija digitalnog i fizičkog. Bez obzira na to da li je sve zaista tako ili nije, preostaje nam samo da se prilagodimo.

U svemu je dobro to što se oblast sajber bezbednosti prilagođava ovoj novoj stvarnosti i primenjuje nove strategije odbrane sa veštačkom inteligencijom i mašinskim učenjem na čelu.