Očekuje nas orvelovska budućnost ako se veštačka inteligencija ne obuzda

Veštačka inteligencija može da dovede do orvelovske budućnosti ako uskoro ne budu doneti zakoni za zaštitu ljudi, tvrdnja je predsednika „Majkrosofta“ Breda Smita. Smit je komentarisao informativni program „Panorama“, emitovan na BBC-ju 26. maja, u kome je poseban naglasak stavljen na potencijalne opasnosti veštačke inteligencije i trku između Sjedinjenih Država i Kine u razvoju tehnologije. Upozorenje dolazi otprilike mesec dana pošto je Evropska unija objavila nacrte propisa kojima pokušava da postavi ograničenja korišćenja veštačke inteligencije. Međutim, takvim problemima se niko ne bavi u Sjedinjenim Državama gde su se zakonodavci uglavnom usredsredili na obuzdavanje propisa i promociju veštačke inteligencije za očuvanje nacionalne bezbednosti. Smit kaže da se neprestano priseća lekcija Džordža Orvela u knjizi 1984. Vlada u spomenutom romanu sve vreme može da vidi sve što svako radi i čuje sve što svako govori. To se nije dogodilo 1984. godine, ali ako ne budemo pažljivi, to bi moglo da se dogodi 2024. godine, predviđa Smit.

Mračna strana tehnologije

Veštačka inteligencija je loše definisan pojam, ali generalno se odnosi na mašine koje mogu automatski da uče или rešavaju probleme, a da ih, pri tome, čovek ne usmerava. Danas se mnogi programi veštačke inteligencije oslanjaju na mašinsko učenje, skup računskih metoda koji se koriste za prepoznavanje obrazaca u velikim količinama podataka, a zatim ono što su naučili primenjuju na sledeći skup podataka i teoretski postaju precizniji posle svakog novog skupa.
Taj izuzetno moćan pristup može da se primeni na sve, od osnovne matematičke teorije do simulacija nastajanja univerzuma, ali može biti opasan kada se primeni na društvene podatke, tvrde stručnjaci. Podaci o ljudima uglavnom su uvek opterećeni ljudskim predrasudama. Na primer, nedavna studija u časopisu JAMA Psychiatry otkrila je da su algoritmi namenjeni predviđanju rizika od samoubistva mnogo neuspešniji kod crnaca i Indijanaca/urođenika sa Aljaske nego kod belaca, delimično zbog toga što je u medicinskom sistemu bilo manje obojenih pacijenata jer su oni imali lošiji pristup lečenju i uspostavljanju odgovarajuće dijagnoze, što znači da su originalni podaci bili iskrivljeni da bi umanjili rizičnost njihovog položaja. Pristrasnost nikada ne može potpuno da se izbegne, ali na nju može da se odgovori. Zbog toga je smanjenje pristrasnosti glavni prioritet i u akademskoj zajednici i u oblasti stvaranja veštačke inteligencije.

Nadzor koji sprovode državne vlade

S druge strane, zloupotreba veštačke inteligencije možda predstavlja veći izazov. Kako se ona koristi nije samo tehničko pitanje; to je isto toliko političko i moralno pitanje, a te vrednosti se veoma razlikuju od države do države.
Tehnologija prepoznavanja lica može biti izuzetno moćno sredstvo koje se koristi za dobrobit zajednice i društva, ali ako neko želi da nadgleda svakog na ulici, ako želi da vidi sve koji se pojave na demonstracijama, veštačka inteligencija je odličan izbor za takav zadatak. Takvu njenu upotrebu vidimo u određenim delovima sveta, napominje Smit. Kina je već počela da svakodnevno i veoma uznemirujuće koristi tehnologiju veštačke inteligencije. Na primer, prepoznavanje lica se koristi u nekim gradovima umesto karata u autobusima i vozovima, ali to takođe znači da vlada ima pristup ogromnim podacima o kretanju i interakciji građana, kako se navodi u „Panorami“. Aktivisti u Americi pronašli su dokumente koji nagoveštavaju da Kina planira da razvije sistem pod nazivom „Jedna osoba, jedan dosije“, koji bi okupljao aktivnosti, odnose i politička uverenja svakog stanovnika u vladin dosije. Ni sam Orvel nikada ne bi mogao da pomisli da će vlada biti sposobna da obavlja takvu vrstu analize.

Čuveni Orvelov roman 1984 opisao je društvo u kome vlada posmatra građane kroz „televizijske ekrane“, čak i kad su kod kuće. Ipak, Orvel nije mogao da zamisli kakve će mogućnosti veštačka inteligencija dodati nadzoru – u njegovom romanu likovi pronalaze načine da izbegnu video-nadzor, a jedino njihovi sugrađani mogu da ih prijave ako krše pravila. U autonomnoj oblasti Sinđijang, gde je ujgurska manjina optužila kinesku vladu za mučenje i kulturni genocid, veštačka inteligencija se koristi za praćenje ljudi, pa čak i za procenu njihove krivice kada su uhapšeni i kada ih saslušavaju, utvrdio je BBC. To je primer tehnologije koja omogućava široko rasprostranjeno kršenje ljudskih prava: Savet za spoljne odnose procenjuje da je milion Ujgura prisilno zatočeno u kampovima za „prevaspitavanje“ od 2017. godine, obično bez ikakvih krivičnih prijava или pravnih mogućnosti da to izbegnu.

Kako da uzvratimo udarac

Potencijalna regulativa Evropske unije o veštačkoj inteligenciji zabranila bi upotrebu sistema bez slobodnog pristanka korisnika или sisteme koji omogućavaju vladi da sprovodi bilo kakvu vrstu „socijalnog bodovanja“. Ostale vrste primene smatraju se „visoko rizičnim“ i moraju da budu transparentne, bezbedne i pod stalnim nadzorom da bi mogle da se pojave na tržištu. Ovde govorimo o upotrebi veštačke inteligencije u oblasti kritične infrastrukture, sprovođenja zakona, kontrole granica i biometrijske identifikacije, kao što su sistemi za identifikaciju lica или glasa. Ostali sistemi, kao što su chatbotovi u korisničkim servisima или video-igre zasnovane na veštačkoj inteligenciji, smatraju se nisko rizičnim i ne podležu strogom nadzoru.

Interesovanje američke savezne vlade za veštačku inteligenciju uglavnom se odnosi na podsticanje njenog razvoja za očuvanje nacionalne bezbednost i u vojne svrhe. Takvo zanimanje povremeno je dovodio do kontroverze. Na primer, kompanija „Gugl“ je 2018. godine obustavila svoj projekat Maven, ugovor sa Pentagonom koji bi vladinoj agenciji omogućio da automatski analizira video-zapise snimljene vojnim avionima i dronovima. Kompanija je tvrdila da je cilj bio samo da označi predmete koje bi pregledali ljudi, ali protivnici su strahovali da bi tehnologija mogla da se koristiti za automatsko ciljanje ljudi i mesta za napade dronovima. Uzbunjivači u „Guglu“ su projekat izneli na videlo, što je na kraju dovelo do toliko jakog pritiska javnosti da je kompanija odustala od ugovora. I pored toga, Pentagon troši više od milijardu dolara godišnje na ugovore o veštačkoj inteligenciji, a primene mašinskog učenja u vojne i nacionalne bezbednosne svrhe su neizbežne, s obzirom na to da Kina želi da bude dominantna u razvoju te tehnologije.

U međuvremenu, lokalne i državne vlasti ulažu napore da obuzdaju veštačku inteligenciju. Najveći okrug države Vašington, okrug King, nedavno je zabranio vladi da koristi softver za prepoznavanje lica, što je prvi takav slučaj. Ne treba zaboraviti da je San Francisko povukao isti potez 2019. godine, što je učinila i nekolicina drugih gradova. Već je bilo slučajeva da je softver za prepoznavanje lica doveo do hapšenja pogrešnih ljudi. U junu 2020. godine, crnac u Detroitu je uhapšen i zadržan 30 sati u pritvoru jer ga je algoritam lažno identifikovao kao osumnjičenog u slučaju krađe u prodavnici. Studija Nacionalnog instituta za standarde i tehnologiju iz 2019. godine otkrila je da je softver prikazao više pogrešnih podudaranja kod crnaca i Azijaca u poređenju sa belcima, što znači da će tehnologija verovatno produbiti razlike u sprovođenju zakona između ljudi različite boje kože.

Ako ne donesemo zakone koji će štititi ljude u budućnosti, gledaćemo kako nas tehnologija prestiže, a onda će nam biti vrlo teško da je stignemo, predviđa Smit.

6401-ocekuje-nas-orvelovska-buducnost-ako-se-vestacka-inteligencija-ne-obuzda