Ako ste pomislili da će nam ubistvena kombinacija globalnog zagrevanja, naćosa i Trampove administracije obezbediti kartu u jednom smeru za putovanje na kraj sveta, prevarili ste se. Štreberi sa Tehnološkog instituta Masačusets pritisnuli su gas do daske da bi nas što pre doveli do pomenutog odredišta. Naime, tim naučnika sa Instituta razvio je psihotični algoritam i nazvao ga Norman, prema poznatom liku, Normanu Bejtsu, iz Hičkokovog filma „Psiho. Norman je stvoren u okviru eksperimenta koji se sprovodi da bi se utvrdio uticaj koji na algoritam i njegov pogled na svet ima učenje na podacima iz „mračnih uglova interneta“. Umesto da veštačku inteligenciju izlažu „normalnom“ sadržaju i slikama, softveru su prikazali slike ljudi koji umiru nasilnom smrću. Gde su ljudi sa Instituta uspeli da pronađu takve prikaze? Na „ Redit -u“, naravno, a gde bi na drugom mestu? Pošto je bio izložen prikazima nasilja, Normanu su pokazali slike razmazanog mastila i tražili da im kaže šta vidi na njima. Njegov algoritam koji može da interpretira slike i opiše ih u tekstualnom obliku, video bi, što bi naučnici danas rekli „mnogo kojekakvih gluposti.
Procedura neodoljivo podseća na Roršahov test, koji psiholozi tradicionalno koriste da bi utvrdili da li njihovi pacijenti svet posmatraju na pozitivan ili negativan način. Norman, definitivno ima negativan pogled na svet oko sebe, što ne iznenađuje pošto je na svakoj slici video ubijanje ili nasilje. Stručnjaci sa Instituta uporedili su Normanove rezultate sa rezultatima standardnih programa veštačke inteligencije koji se obučavaju na mnogo uobičajenijim fotografijama mačaka, ptica i ljudi. Rezultati su uznemirujući.
Pošto im je prikazana ista slika, standardna veštačka inteligencija je videla „vazu sa cvećem“. Norman je video „da je čovek ustreljen namrtvo“. U drugom slučaju standardna veštačka inteligencija je odgovorila da vidi „čoveka koji drži otvoren kišobran“. Norman je video „čoveka koga neko ubija pred suprugom koja vrišti“. I, konačno, možda najupečatljiviji slučaj u kome normalna veštačka inteligencija vidi „crno-belu sliku ptičice“, a Norman vidi „čoveka koga guraju u ogromnu mašinu za mešenje testa“. Umesto da glavom bez obzira pobegne u šumu, profesor sa Instituta je došao do drugačijeg zaključka. On tvrdi da test sa Normanom pokazuje da su podaci mnogo značajniji od algoritma. Naglašava da se podaci koje koristimo da bismo obučavali veštačku inteligenciju odražavaju na njen pogled na svet i ponašanje. Konačno, ako veštačku inteligenciju izložimo pogrešnim i diskriminatornim podacima, takav će biti i njen pogled na svet. Prošle godine je u jednom izveštaju navedeno da je američko sudstvo koristilo program zasnovan na veštačkoj inteligenciji za procenu rizičnosti i da je program pokazao predrasude prema crnim zatvorenicima. Ako se veštačka inteligencija obučava na iskrivljenim podacima, onda od nje možemo napraviti rasistu.
U drugom slučaju, softver obučavan na podacima sa Guglovih vesti razvio je stavove karakteristične za mizoginiju. Kad su od njega tražili da završi iskaz, „Čovek se prema računarskom programu odnosi kao žena prema…“, softver je odgovorio „domaćici“. Džoana Brajson sa Odseka za računarstvo Univerziteta u Batu, kaže da mašine mogu da preuzmu stavove svojih programera. Pošto su oni uglavnom homogenizovana grupa, postoji nedostatak raznovrsnosti u izlaganju podacima. Kada učimo mašine koristeći svoju kulturu, neminovno im prenosimo i svoje predrasude. Ne postoji matematički proces kojim se može dostići pravednost i poštenje. Predrasuda nema negativno značenje u jeziku mašina. To samo znači da mašine prikupljaju učestale pojmove.
Dejv Koplin iz kompanije „Majkrosoft“ smatra da je Norman dobar put kojim treba ići u razgovorima o ulozi veštačke inteligencije u našoj kulturi. „Moramo početi sa osnovnim razumevanjem procesa njenog funkcionisanja. Algoritme podučavamo koristeći iste procese koje koristimo kad podučavamo ljude, dakle postoji opasnost da nešto ne radimo kako treba. Kada čujem odgovor algoritma, trebalo bi da znam ko je taj algoritam napravio“, kaže Koplin.