Pošto različite vrste veštačke inteligencije postaju sve prisutnije u savremenom svetu, ključna oblast istraživanja trebalo bi da nam obezbedi mogućnost da pratimo njihove odluke, da ih preispitujemo i konačno uklonimo sve ukorenjene predrasude. Prosvetni radnici u Americi su u oktobru uspeli da pobede u sudskom procesu koji su vodili protiv školske uprave, a zbog računarskog programa koji je ocenjivao njihov rad. Softverski sistem je procenjivao nastavnike u Hjustonu tako što je upoređivao rezultate njihovih studenata na testovima sa prosečnim rezultatima na nacionalnom nivou. Nastavnici čiji su učenici postigli uspeh na testovima dobili su pohvale, neki čak i bonuse. Oni čiji su učenici bili ispod proseka dobili su otkaze. Program nikoga nije oduševio. Neki nastavnici su smatrali da su dobili loše ocene bez bilo kakvog razloga, ali nisu imali mogućnost da provere da li je program pouzdan ili nije. Kompanija koja ga je napravila, SAS institut, smatra da je algoritam poslovna tajna i nema nameru da otkrije kako on funkcioniše.
Zbog toga su nastavnici odlučili da ceo slučaj predaju sudu i federalni sudija je odlučio da korišćenje programa EVAAS (Educational Value Added Assessment System – Sistem za procenu dodatne vrednosti obrazovanja) može da naruši građanska prava. Slučaj je rešen tako što je školska uprava nastavnicima isplatila odštetu i odlučila da program više ne koristi.
Međutim, zakon nema iste aršine za različite slučajeve. Kada je 2013. policija u Viskonsinu uhapsila Erika Lumisa jer je vozio automobil korišćen u pucnjavi, dobio je strogu zatvorsku kaznu pošto je računarski algoritam Compas procenio da postoji ogromna verovatnoća da će Lumis ponovo počiniti krivično delo. Lumis se žalio na presudu, rekavši da ne zna kako program radi. Njegov argument je odbijen na Višem sudu u Viskonsinu.
Dolazak veštačke inteligencije izazivao je zabrinutost zbog kompjuterizovanih odluka, posebno zbog toga što veštačka inteligencija prožima sve više oblasti društvenog života. Ima je u bankarstvu, pravnom i poslovnom sektoru, zatim u nacionalnim zdravstvenim institucijama i vladama. Međutim, problem nije u njenoj raširenost, već pravičnosti i odgovornosti.
Stručnjaci su napravili poduži spisak slučajeva u kojima je veštačka inteligencija pogrešila, da li zbog greške u kodiranju ili ukorenjenih predrasuda u podacima na kojima je obučavana. Loše veštačke inteligencije označile su potpuno nevine ljude kao teroriste, poslale bolesne iz bolnica kućama. Zbog njih su ljudi izgubili posao ili im je oduzeta vozačka dozvola. Drugi su izbačeni iz biračkog spiska ili su vlasti jurile pogrešnog čoveka koji, navodno, nije platio alimentaciju. Svi su diskriminisani zbog imena, adresa, pola ili boje kože.
Loša veštačka inteligencija ne mora da se napravi namerno. Na primer, kompanija bi mogla da koristi veštačku inteligenciju (koju bi obučavala na podacima o zaposlenima koji su napredovali do najviših položaja) da bi pretražila biografije i tako pronašla najbolje kandidate. Ako je radno okruženje u kompaniji povoljno i zdravo, veštačka inteligencija će uočiti najbolje kandidate, ali ako nije, mogla bi predložiti ljude koji ne bi prezali ni od čega samo da dobiju unapređenje.
Otvaranje crne kutije
U poslednje vreme stručnjaci se najviše bave sledećim oblastima veštačke inteligencije: pravednost, odgovornost i razumljivost. Nije ni čudo, pošto su većinu sistema veštačke inteligencije napravile privatne kompanije koje ne dozvoljavaju nikome sa strane uvid u rad njihovih programa. Pored toga, mnoge veštačke inteligencije koriste toliko komplikovane neuronske mreže da ni sami autori ne mogu da objasne kako su došle do takvih odgovora. Odluke dolaze iz „crne kutije“ i mora im se verovati „na reč“. Međutim, to i nije tako strašno kad nam veštačka inteligencija predlaže novi nastavak serije „Igra prestola“, ali ulozi su mnogo veći kad treba da vozi automobil, utvrdi oboljenje ili ima odlučujuću reč u nečijem zapošljavanju ili odlasku u zatvor.
Prošlog meseca, Institut za veštačku inteligenciju na Univerzitetu u Njujorku koji se bavi njenim društvenim uticajem, predložio je organizacijama u javnom sektoru koje se bave obrazovanjem, zdravstvom, sudstvom i socijalnom zaštitom da zabrane korišćenje crne kutije veštačkih inteligencija jer se njihove odluke ne mogu objasniti.
Kejt Kroford, suosnivač instituta, kaže da se sistemi koji nemaju javnu odgovornost ne mogu koristiti u oblastima visokog rizika. U takvim slučajevima, potrebno je prvo omogućiti testiranje takvih sistema pre korišćenja. U probnom periodu bi se mogle uočiti greške i predrasude koje bi se odmah korigovale.
Kompanije koje se bave savremenim tehnologijama svesne su da će ih zakoni i pritisak javnosti primorati da objasne svoje odluke, koje bi i programeri želeli da shvate. Profesor mašinskog učenja na Tehničkom univerzitetu u Berlinu Klaus-Robert Miler zajedno sa svojim timom napravio je kontrolni program koji analizira odluku koju je donela veštačka inteligencija tako što ide u suprotnom smeru i prolazi kroz neuronsku mrežu programa da bi otkrio kako je odluka doneta.
Da bi testirali program, koristili su dve vrhunske veštačke inteligencije koje su prepoznavale konje u ogromnoj galeriji slika konja. Jedna se usredsredila na karakteristična obeležja životinje, dok je druga svoju odluku zasnivala na gomili piksela u donjem levom uglu svake slike. Pikseli su, naime, sadržavali zapise autorskih prava. Druga veštačka inteligencija je radila nepogrešivo, ali motivi su joj bili potpuno pogrešni. Zbog toga je neophodno otvoriti crnu kutiju jer treba da budemo sigurni da smo dobili prave odgovore koji su ispravno motivisani.
Postoje i drugačiji predlozi za unapređenje funkcionisanja veštačke inteligencije. Umesto otkrivanja unutrašnjih procesa, trebalo bi ispitati šta je potrebno uraditi da bi se promenila odluka koju je donela veštačka inteligencija.
U svakom slučaju, stručnjaci se slažu da korišćenje veštačke inteligencije treba regulisati zakonima i da u tom procesu odgovornu ulogu treba da preuzme vlada. Evropa je znatno ispred ostatka sveta u regulisanju korišćenja veštačke inteligencije i zaštiti građana od loše kreiranih ili korišćenih sistema. U maju sledeće godine, prema GDPR (General Data Protection Regulation) ljudi će imati pravo da znaju da li kompanije donose automatizovane odluke koje direktno utiču na njih. Isto tako, imaće pravo da traže objašnjenje odluke i da je preispitaju. Međutim, ova evropska regulativa neće biti toliko moćna koliko na prvi pogled izgleda. Građani će imati pravo da saznaju ko donosi odluke samo pre njenog donošenja, ali ne i posle toga. Svaka odluka se može preispitivati samo ako je ceo proces u potpunosti automatizovan. Ako bar negde u procesu donošenja odluke učestvuje čovek, građani to pravo gube.
Postoje i predlozi o osnivanju nezavisnih komisija koje bi imale uvid u veštačke inteligencije u različitim organizacijama da bi mogle da dođu do određenih objašnjenja, na osnovu kojih bi se izdavale potvrde da se mogu koristiti u kritičnim oblastima kao što su medicina, sudstvo i autonomna vozila jer ispunjavaju propisane bezbednosne standarde.
Zbog veoma raširene upotrebe veštačke inteligencije koja sve više prožima mnogobrojne oblasti društvenog života, stručnjaci se slažu da bi regulisanjem njene upotrebe trebalo da se bave najviši organi uprave u državama u kojima se ona koristi.