Dvogodišnja istraga privatnih i javnih upotreba sistema veštačke inteligencije utvrdila je da je potrebno da se sprovede veći nadzor nad njima, posebno u državnim službama, a naročito u policiji. Što više dajemo moć algoritmima u donošenju odluka koje mogu značajno da utiču na život građana, nalazimo se u sve većoj opasnosti da se proširi nepravedna diskriminacija, navodi se u novom izveštaju koji je objavio britanski Centar za etiku podataka i inovacije ( CDEI ). U nekim sektorima, prvenstveno u javnom sektoru, a posebno u policiji, trebalo bi odmah da se pristupi obezbeđivanju adekvatnih resursa da bismo bili potpuno sigurni da su sistemi veštačke inteligencije nepristrasni. CDEI je dve godine istraživao upotrebu algoritama i u privatnom i u javnom sektoru i upoznao se sa mnogim različitim nivoima uspešnosti u suočavanju sa rizicima do kojih može dovesti upotreba algoritama. Na primer, izgleda da je u finansijskom sektoru mnogo temeljnije regulisana upotreba podataka za donošenje odluka, dok se u lokalnoj samoupravi tim pitanjem bave na osnovnom nivou.
Iako u svim privrednim granama raste svest o opasnostima u koje nas može dovesti veštačka inteligencija, izveštaj otkriva da ne postoji poseban primer dobre prakse kada je u pitanju stvaranje odgovornih algoritama. To predstavlja poseban problem u oblasti javnih usluga, kao što je policija, utvrdio je CDEI , jer građani ne mogu tek tako da odluče da se izdvoje iz sistema. U istraživanju koje je sprovedeno u okviru izveštaja zaključeno je da postoji velika zabrinutost u sektoru za sprovođenje zakona u Velikoj Britaniji zbog nedostatka zvaničnih smernica o upotrebi algoritama u policiji. „Taj nedostatak treba rešiti po hitnom postupku“, navodi se u istraživanju.
Policijske snage sve brže usvajaju digitalne tehnologije: na početku godine, vlada je najavila da će uložiti 63,7 miliona funti kako bi podstakla razvoj tehnoloških programa u policiji. Novi alati obuhvataju sve od tehnologija za vizuelizaciju podataka do algoritama koji mogu da uoče obrasce potencijalnog kriminala, pa čak i predvide da li će neko ponovo počiniti isti zločin. Primena alata za analizu podataka bez odgovarajućih mera zaštite može da ima neželjene posledice. Izveštaji su više puta pokazali da podaci prikupljeni u policiji mogu biti pristrasni i često ne daju reprezentativni uzorak širenja i rasprostranjenosti kriminala u državi. Prema podacima koje je Ministarstvo unutrašnjih poslova objavilo prošle godine, na primer, deset puta je veća šansa da policajac zaustavi i pretraži one koji su identifikovani kao crnci или britanski crnci nego belce.
Sistem veštačke inteligencije koji se oslanja na takvu vrstu podataka ima opasnu tendenciju da nastavi sa diskriminatornim postupcima. Londonska policija je koristila alat Gangs Matrix da bi identifikovala one koji se nalaze u neposrednoj opasnosti da se upletu u nasilne aktivnosti bandi u Londonu. Pošto se zasnivao na zastarelim podacima, tehnologija je u nesrazmerno velikom broju obuhvatila mlade crnce. Nakon što su aktivisti izrazili zabrinutost, baza podataka matrice je na kraju revidirana kako bi se smanjila zastupljenost pojedinaca koji vode poreklo od karipskih crnaca.
Alati slični pomenutom doveli su do sve veće zabrinutosti među policijskim snagama, što je pitanje koje tek treba da se reši pomoću smernica koje bi vlada trebalo da utvrdi, tvrdi CDEI . Iako se radi na razvoju nacionalnog pristupa analizi podataka u policiji, za sada policijske snage moraju da se oslone na neodgovarajuće metode za uspostavljanje etičkih odbora i smernica – i to ne uvek sa uverljivim rezultatima.
Do sličnih zaključaka došao je i izveštaj koji je ranije ove godine objavio britanski komitet za standarde u javnom životu, predvođen bivšim šefom MI5 Lordom Evansom, koji je izrazio posebnu zabrinutost zbog upotrebe sistema veštačke inteligencije u policijskim snagama. Evans je primetio da ne postoji usklađen proces za procenu i primenu algoritamskih alata u sprovođenju zakona i da je često stvaranje određenih etičkih okvira odgovornost pojedinačnih policijskih uprava.
Problemi sa kojima se policijske snage suočavaju pri korišćenju podataka, takođe, su prisutni u ostalim javnim službama. Nauka o podacima primenjuje se u vladinim odeljenjima na odluke koje se donose za dobrobit građana, stanovanje, obrazovanje или prevoz; a oslanjanje na zastarele podatke koji su opterećeni pristrasnošću može isto tako dovesti do nepoštenih ishoda. Na primer, pre samo nekoliko meseci, regulatorni organ Ofqual britanske vlade koji se bavi sistemom ispita u školama napravio je algoritam koji je trebalo da odredi zaključne ocene učenicima da bi se izbeglo organizovanje ispita u učionicama usred pandemije kovida-19. Pokazalo se da je algoritam dao nepoštena predviđanja, zasnovana na pristrasnim podacima o prošlim uspesima različitih škola. Ofqual je odmah povukao alat i ponovo su nastavnici bili zaduženi da obave taj posao.
Poboljšanje procesa donošenja odluka zasnovanih na podacima u javnom sektoru treba smatrati prioritetom, smatra CDEI . „Demokratski izabrane vlade imaju posebnu dužnost i odgovornost prema građanima“, navodi se u izveštaju. „Očekujemo da će javni sektor moći da opravda i argumentuje svoje odluke.“
Ulozi su visoki: sticanje poverenja javnosti biće ključno za uspešnu primenu veštačke inteligencije. Ipak, izveštaj CDEI pokazao je da se do 60 procenata građana trenutno protivi korišćenju veštačke inteligencije pri donošenju odluka u krivično-pravnom sistemu. Velika većina ispitanika (83 procenta) nije čak ni sigurna kako se takvi sistemi uopšte koriste u policijskim snagama i ističe nepostojanje transparentnosti, što treba odmah da se reši.
Sistemi veštačke inteligencije mogu mnogo da pruže ako se pravilno primene. U stvari, tvrde istraživači CDEI , algoritmi bi mogli da budu vrlo značajni za identifikovanje zastarelih predrasuda, ali i za njihovo uklanjanje iz budućih alata koji bi se koristili za donošenje odluka. Sledećih nekoliko godina biće potrebni snažni podsticaji da bi smo bili sigurni da će organizacije razvijati sisteme veštačke inteligencije koji su u skladu sa zahtevima za donošenje uravnoteženih odluka. Savršeno pošten algoritam možda još uvek nije na dohvat ruke, ali tehnologija veštačke inteligencije uskoro bi mogla da se iskoristi za suočavanje ljudi sa sopstvenim predrasudama.