Stručnjaci smatraju da će veštačka inteligencija dovesti do izumiranja ljudske vrste. Da li možemo nešto da preduzmemo da do toga ne dođe?
Još jednom je grupa sastavljena od vodećih naučnika i stručnjaka za veštačku inteligenciju i rukovodilaca tehnoloških firmi upozorila da bi trenutni brzi razvoj veštačke inteligencije mogao da predstavlja katastrofu za čovečanstvo.
U okviru neposrednih pretnji ljudskom opstanku, kao što su nuklearni sukobi, bolesti i dezinformacije, našla se i neobuzdana veštačka inteligencija bez nadzora.
Treba napomenuti da upozorenja na opasnost od nekontrolisanog razvoja najnovije tehnologije dolaze upravo od onih istih ljudi koji rukovode razvojem veštačke inteligencije i pokušavaju da nametnu korišćenje njenih alata i programa u svojim kompanijama.
Zbog čega tehnološke kompanije i stručnjaci za veštačku inteligenciju upozoravaju na opasnosti?
Više od 350 stručnjaka, programera i inženjera je 30. maja 2023. godine, objavilo potpisanu izjavu u kojoj upozoravaju na opasnosti koje veštačka inteligencija ima po opstanak ljudske vrste.
Ublažavanje tih opasnosti trebalo bi da bude globalni prioritet pored drugih društvenih rizika kao što su pandemije i nuklearni rat.
Potpisnici izjave Safe.ai su, između ostalih i Sem Altman iz kompanije OpenAI, Demis Hasabis iz ogranka Google DeepMind i Dario Amodei iz kompanije Anthropic, zajedno sa dobitnicima Tjuringove nagrade Džefrijem Hintonom i Džošuom Benđom (mada je Jan LeCun, koji je takođe osvojio istu nagradu, odbio da je potpiše ). Lista obuhvata skoro sve priznate stručnjake koji se bave razvojem veštačke inteligencije i svi upozoravaju da bi veštačka inteligencija mogla da predstavlja katastrofu za čovečanstvo.
Izjava je kratka, ali jasno ističe opasnosti, posebno navodeći dve ključne oblasti koje bi mogle da ugroze svet u kome živimo, a to su nuklearni rat i globalna zdravstvena pitanja. Dok je opasnost od nuklearnog sukoba zabrinjavajuća, rizik od pandemije je opipljivija pretnja za većinu.
Međutim, globalna pandemija nije jedina koja bi mogla da izazove zdravstvene probleme povezane sa veštačkom inteligencijom. Časopis Gardijan izveštava o nekoliko drugih zdravstvenih problema povezanih sa veštačkom inteligencijom koji bi mogli da imaju neželjene uticaje na ljude ako se ne obavi njena detaljna provera pre opšte upotrebe. Jedan primer se odnosi na korišćenje oksimetara opremljenih veštačkom inteligencijom koji su „precenjivali nivoe kiseonika u krvi kod pacijenata sa tamnijom kožom, što je dovelo do neodgovarajućeg lečenja hipoksije kod tih pacijenata“.
Štaviše, to nije prvi put da grupa tehnoloških lidera poziva na prekidanje korišćenja ili ozbiljnu ponovnu procenu razvoja veštačke inteligencije. U martu 2023. godine, Ilon Mask i grupa stručnjaka za veštačku inteligenciju potpisali su sličan poziv na akciju tražeći moratorijum na razvoj veštačke inteligencije dok se ne primeni više propisa koji će pomoći u nadziranju razvoja nove tehnologije.
Kakve nam opasnosti prete?
Većina opasnosti povezanih sa veštačkom inteligencijom, bar u ovom kontekstu, odnosi se na razvoj neobuzdane tehnologije veštačke inteligencije koja prevazilazi sposobnosti ljudi, u kome se na kraju okreće protiv svog tvorca i uništava život na kakav smo navikli. Ta priča je obrađena bezbroj puta u delima naučne fantastike, kojoj je sada stvarnost mnogo bliža nego što možemo da pretpostavimo.
Veliki jezički modeli (koji podržavaju alate kao što je ChatGPT) drastično povećavaju mogućnosti veštačke inteligencije. Međutim, alati kao što je ChatGPT imaju mnogo problema. Prvo, pristrasnost im je svojstvena, zatim, postoji zabrinutost za očuvanje privatnosti i konačno, već dobro poznate halucinacije. Strah nas je i da spomenemo mogućnost upada u sistem da bi mu se pružila prilika da deluje van granica svojih programiranih uslova i pravila.
Kako se veliki jezički modeli povećavaju i imaju više tačaka podataka za korišćenje, zajedno sa pristupom internetu i boljim razumevanjem aktuelnih događaja, stručnjaci za veštačku inteligenciju strahuju da bi jednog dana, prema rečima generalnog direktora kompanije OpenAI Sema Altmana, svašta moglo da „pođe po zlu“.
Kako vlade regulišu razvoj veštačke inteligencije da bi eliminisale pretnje?
Regulacija veštačke inteligencije je ključna za eliminisanje opasnosti. Početkom maja 2023. godine, Sem Altman tražio da se uspostave stroga pravila i zakoni u vezi sa veštačkom inteligencijom, navodeći da će „regulatorna intervencija vlada biti od presudnog značaja za ublažavanje rizika od sve moćnijih modela“.
Potom je Evropska unija objavila Zakon o veštačkoj inteligenciji, propis koji je osmišljen da obezbedi mnogo stroži okvir za razvoj veštačke inteligencije u celoj EU (u njemu je gomila propisa koji se nalaze u domenima različitih regulatornih tela). Altman je u početku zapretio da će povući OpenAI iz EU, ali pretnju je povukao i složio se da će kompanija poštovati propis o veštačkoj inteligenciji koji je prethodno zahtevao.
Bez obzira na sve to, jasno je da je regulacija razvoja i upotrebe veštačke inteligencije izuzetno važna.
Hoće li veštačka inteligencija okončati postojanje ljudske vrste?
Kako se veći deo debate na tu temu oslanja na ne baš utemeljenim predviđanjima o moći budućih verzija veštačke inteligencije, postoje pitanja o trajanju i moći svakog zakona koji se donese u vezi sa veštačkom inteligencijom. Kako najbolje regulisati industriju koja se već kreće brzinom od hiljadu kilometara u sekundi, a napredak u razvoju se dešava svakodnevno?
Štaviše, još postoji sumnja u sposobnosti veštačke inteligencije uopšte i gde će ona završiti. Dok oni koji se plaše najgoreg ukazuju na to da će opšta veštačka inteligencija vladati ljudima, drugi ukazuju na činjenicu da trenutne verzije veštačke inteligencije ne mogu čak ni da rešavaju osnovne matematičke zadatke, a da su automobili koji su potpuno autonomni još daleko. Teško je oglušiti se o upozorenja koja nam šalju oni koji gledaju u budućnost. Mnogi ljudi koji najglasnije ističu probleme koje veštačka inteligencija može da izazove nalaze se na čelu razvoja nove tehnologije i vide kuda bismo mogli da idemo. Ako oni sami zahtevaju regulaciju veštačke inteligencije kako bi nas zaštitili od potencijalno užasne budućnosti, možda je vreme da ih poslušamo