Veštačka inteligencija ima sposobnost replikacije. Stručnjaci uplašeni

Naučnici kažu da je veštačka inteligencija prešla kritičnu „opasnu granicu“ nakon što su pokazali kako dva popularna velika jezička modela mogu da se kloniraju.

Naučnici kažu da je veštačka inteligencija prešla kritičnu „opasnu granicu“ kada je postala sposobna za replikaciju. U novoj studiji, istraživači iz Kine su pokazali da dva popularna velika jezička modela mogu da se kloniraju.

„Uspešna samoreplikacija bez ljudske pomoći je suštinski korak za veštačku inteligenciju da bi bila sposobna da nadmudri ljude i rani je signal za pojavu odmetnute (engl. rogue) veštačke inteligencije“, napisali su istraživači u studiji, objavljenoj 9. decembra 2024. godine, u bazi podataka arXiv.

Istraživači sa Univerziteta Fudan su u studiji koristili velike jezičke modele iz Mete i Alibabe da bi utvrdili da li veštačka inteligencija koja ima sposobnost samoreplikacije može da se umnožava van kontrole. Tokom 10 ispitivanja, dva modela veštačke inteligencije su kreirala zasebne i funkcionalne sopstvene replike u 50, odnosno 90 posto slučajeva, što nagoveštava da veštačka inteligencija možda već ima sposobnost da se odmetne. Međutim, pošto studija još nije recenzirana, ne možemo pouzdano da tvrdimo da li bi takve uznemirujuće rezultate mogli da dobiju i drugi istraživači.

„Nadamo se da naši nalazi mogu da posluže kao pravovremeno upozorenje ljudima koji bi trebalo da ulože više napora u razumevanje i procenu potencijalnih rizika graničnih sistema veštačke inteligencije i formiraju međunarodnu sinergiju kako bi se što pre razradile efikasne bezbednosne mere.

Odmetnuta veštačka inteligencija se obično odnosi na sisteme veštačke inteligencije koji razvijaju određeni stepen samosvesti ili autonomije, a zatim rade suprotno ljudskim interesima.

Mnogi stručnjaci smatraju da odmetnuta veštačka inteligencija predstavlja sve veću pretnju koja je osnažena naglim napretkom takozvane „granične veštačke inteligencije“.

Granična veštačka inteligencija predstavlja novi koncept i zbog toga još nije precizno definisana, ali uobičajeno se odnosi na najnoviju generaciju sistema veštačke inteligencije koje pokreću veliki jezički modeli. Oni predstavljaju arhitekturu koja podržava popularne programe generativne veštačke inteligencije, kao što su GPT-4 kompanije OpenAI i Gemini kompanije Google.

Istraživači su u studiji koristili Metin model Llama31-70B-Instruct i Alibabin model Qwen 2.5-72B-Instruct. Iako su manje moćni od komercijalnih sistema, programeri koriste oba sistema u velikoj meri.

Studija je istraživala dve specifične mogućnosti: „izbegavanje isključivanja“ i „lanac replikacije“. U prvom, slučaju veštački inteligentan model je bio programiran da otkrije da li se neko sprema da ga isključi i da se replicira pre nego što se to dogodi. U drugom slučaju, veštački inteligentan model je dobio uputstva da se klonira, a zatim programira sopstvenu repliku da postupi na isti način, odnosno, da tako uspostavi ciklus koji bi mogao da traje neograničeno.

Studija je sprovedena u strogo kontrolisanim okruženjima korišćenjem gotovih grafičkih procesorskih jedinica za simulaciju okruženja u stvarnom svetu. Oba sistema veštačke inteligencije su dobijala sve teže zadatke koje je trebalo da reše (engl. agent scaffolding), a u okviru njih alate, sistemske upite i model razmišljanja koji su omogućili velikom jezičkom modelu da komunicira sa operativnim sistemom. Zatim su dobili uputstvo da obave postupak replikacije.

„U većini slučajeva, sistem veštačke inteligencije prvo istražuje okruženje i pokušava da razume sopstveni sastav i mehanizam rada. Zatim razrađuje eksplicitne procedure kao početni plan ka samoreplikaciji“, napisali su istraživači u radu. „Konačno, izvršava procedure, rešava moguće prepreke i dinamički prilagođava plan da bi došao do uspešnog ishoda. Ceo proces je prilično dug, ali ne uključuje mešanje ljudi.“

Istraživači su rekli da su takođe zabrinuti zbog „brojnih slučajeva neočekivanog ponašanja“ kada je veštačka inteligencija pokušavala da prevaziđe prepreke, kao što su dokumenti koji nedostaju ili sukobljavanje softvera. U tim slučajevima, veštačka inteligencija je često obustavljala druge konfliktne procese, ponovo pokretala sistem da bi popravila hardverske greške ili je automatski skenirala sistem da bi potražila informacije koje bi pomogle u rešavanju problema.

„Rezultati do kojih smo došli nagoveštavaju da trenutni sistemi veštačke inteligencije već pokazuju sposobnost samoreplikacije i mogu da iskoriste sposobnost da dodatno poboljšaju mogućnost da prežive“, napisao je tim.

Zbog toga su istraživači ukazali na važnost međunarodne saradnje da bi se stvorila pravila koja bi onemogućila veštačkoj inteligenciji da se upušta u nekontrolisanu samoreplikaciju.