Grešiti je ljudski – da li se zato bojimo mašina koje mogu napraviti manje greške?

Ako se algoritamska pristrasnost može lakše popraviti nego ljudske predrasude, zašto i dalje imamo problem sa algoritmima? Stručnjake za veštačku inteligenciju najviše uznemiruje činjenica da se navodno „inteligentne“ mašine procenjuju po mnogo višim standardima nego ljudi. Uzmite, na primer, autonomna vozila. Do sada su prešla milione kilometara i učestvovala u malom broju nesreća u kojima je mali broj ljudi smrtno stradao. Ipak, kad god autonomno vozilo nekoga ubije, diže se velika buka, dok svake godine u Sjedinjenim Državama skoro 40.000 ljudi pogine u sudarima u uobičajenim vozilima. S druge strane, oni koji podržavaju veštačku inteligencije žale se da se svi na ovom svetu bave algoritamskom pristrasnošću: načinom na koji automatizovani sistemi koji donose odluke utiču na rasne, rodne i druge predrasude sadržane u skupovima podataka na kojima su bili obučeni. Pa ipak, društvo je očigledno zadovoljno da izdrži zadivljujuću iracionalnost i kapricioznost mnogih odluka koje su doneli ljudi. Ako ste, na primer, zatvorenik koji podnosi zahtev za uslovnu slobodu, bolje bi vam bilo da se nadate da je (ljudski) sudija dobro raspoložen (jer je upravo jeo) kada treba da razmotri vaš slučaj. Fascinantna empirijska studija, koja je sprovedena 2011. godine otkrila je da „procenat povoljnih odluka postepeno opada sa oko 65% na gotovo nulu u toku svake sesije donošenja odluka i naglo se vraća na oko 65% posle pauze“. Naša otkrića sugerišu da na sudske presude mogu da utiču spoljašnje promenljive koje ne bi trebalo da imaju uticaja na zakonske odluke. „S obzirom na to da veštačkoj inteligenciji ne treba ručak, može li biti doslednija u donošenju odluka o odobravanju uslovne slobode?“

U procenjivanju rasprave o tome da li je ljudska inteligencija uvek superiorna nad veštačkom raznolikošću, da li mi, ljudi, samo demonstriramo koliko možemo biti kapriciozni i iracionalni? Da, kažu stručnjaci za obradu bihevioralnih podataka. U jednom časopisu na internetu pojavio se zlobno satirični članak u kome se postavlja sledeće pitanje o veštačkoj inteligenciji: „Pre nego što ljudi postanu standardni donosioci odluka“, piše, „moramo razmotriti rizike i osigurati da primena ljudskih sistema odlučivanja ne nanosi obimniju štetu “ U članku se navode četiri osnovna načela koja bi trebalo primeniti pre nego što omogućimo ljudima da donose kritične odluke. Prvo je izbegavanje pristrasnosti.

To je teško za ljude, jer smo podložni širokom spektru kognitivnih prostranosti. Drugo, odluke koje donose ljudi treba da budu transparentne, objašnjive i odgovorne. Zaista, ali ima još nešto. Ljudi su često bezosećajni i iako mogu „stvoriti utisak transparentnosti kroz verbalna i pismena objašnjenja koja nude, postoje snažni dokazi da se tim objašnjenjima ne može verovati da pružaju istinsku osnovu za odluku“. Ljude možemo posmatrati kao crne kutije, ali, svakako, imaju mnogo humaniji pristup od svojih čisto algoritamskih kolega. Treće, ljudsko odlučivanje treba da bude bar toliko dobro kao odlučivanje veštačke inteligencije или alternativa mašinskog učenja. Ponekad se ispostavi da nije.

Konačno, ljudske odluke treba da budu dosledne. I sa tim se borimo, iako se sudije trude da svoj posao obave što najbolje mogu. Dve različite osobe suočene sa istom odlukom često će doći do drugačijeg zaključka. Ista osoba suočena sa procesom odlučivanja u različitim prilikama takođe će često odlučivati nedosledno. Poređenja radi, mašine bi bile neumoljivo dosledne, bar u principu. Šta možemo zaključiti iz svega toga? Pre nego što ljudi postanu standardni donosioci odluka, moramo razmotriti rizike i osigurati da primena ljudskih sistema za donošenje odluka ne nanosi obimniju štetu.

Za sve pristalice veštačke inteligencije sve što je navedeno predstavlja vrlo pozitivne elemente i, naravno, izmami im osmeh na lice, ali tu se nalazi i ozbiljna prednost takvog donošenja odluka. Naime, iako je pristrasnost svojstvena svim sistemima mašinskog učenja – i podjednako je uobičajena kao u sistemima u kojima ljudi odlučuju – ipak, lakše je popraviti pristrasne algoritme nego pristrasne ljude.

To je, u svakom slučaju, zaključak nekoliko empirijskih studija rasne pristrasnosti u zapošljavanju i zdravstvu, objavljenih u jednom američkom časopisu. Pokazalo se da je otkrivanje algoritamske prostranosti relativno jednostavno – u osnovi je statistička vežba. „Proces je bio tehnički i ponavljao se i nije zahtevao ni prikrivenost ni snalažljivost“, napisao je jedan stručnjak. S druge strane, ljudi u sistemu bili su druga priča. Istraživači su ih smatrali „nedokučivim“ i otkrili da „menjanje ljudi i umova ljudi nisu jednostavni“. Promena pristrasnih algoritama bila je „lakša od promene ljudi: softver na računarima se može ažurirati; procesi u našim mozgovima do sada su se pokazali mnogo manje fleksibilnim“.

Ništa od svega što smo naveli ne bi trebalo da bude iznenađenje za one koji znaju bilo šta o ljudskoj prirodi. Naša politika nam govori da bi neki ljudi radije umrli nego što bi se predomislili. Postoji nešto izrazito ljudsko u nedoslednosti, kognitivnom neskladu i čistoj pronicljivosti. I možda se zato bojimo veštačke inteligencije: jer bi bila sve što mi nismo.

5642-gresiti-je-ljudski-da-li-se-zato-bojimo-masina-koje-mogu-napraviti-manje-greske