Технолошки институт Масачусетс направио психотичну вештачку интелигенцију

Ако сте помислили да ће нам убиствена комбинација глобалног загревања, наћоса и Трампове администрације обезбедити карту у једном смеру за путовање на крај света, преварили сте се. Штребери са Технолошког института Масачусетс притиснули су гас до даске да би нас што пре довели до поменутог одредишта. Наиме, тим научника са Института развио је психотични алгоритам и назвао га Норман, према познатом лику, Норману Бејтсу, из Хичкоковог филма „Психо. Норман је створен у оквиру експеримента који се спроводи да би се утврдио утицај који на алгоритам и његов поглед на свет има учење на подацима из „мрачних углова интернета“. Уместо да вештачку интелигенцију излажу „нормалном“ садржају и сликама, софтверу су приказали слике људи који умиру насилном смрћу. Где су људи са Института успели да пронађу такве приказе? На „Redit-у“, наравно, а где би на другом месту? Пошто је био изложен приказима насиља, Норману су показали слике размазаног мастила и тражили да им каже шта види на њима. Његов алгоритам који може да интерпретира слике и опише их у текстуалном облику, видео би, што би научници данас рекли „много којекаквих глупости.

Процедура неодољиво подсећа на Роршахов тест, који психолози традиционално користе да би утврдили да ли њихови пацијенти свет посматрају на позитиван или негативан начин. Норман, дефинитивно има негативан поглед на свет око себе, што не изненађује пошто је на свакој слици видео убијање или насиље. Стручњаци са Института упоредили су Норманове резултате са резултатима стандардних програма вештачке интелигенције који се обучавају на много уобичајенијим фотографијама мачака, птица и људи. Резултати су узнемирујући.

Пошто им је приказана иста слика, стандардна вештачка интелигенција је видела „вазу са цвећем“. Норман је видео „да је човек устрељен намртво“. У другом случају стандардна вештачка интелигенција је одговорила да види „човека који држи отворен кишобран“. Норман је видео „човека кога неко убија пред супругом која вришти“. И, коначно, можда најупечатљивији случај у коме нормална вештачка интелигенција види „црно-белу слику птичице“, а Норман види „човека кога гурају у огромну машину за мешење теста“. Уместо да главом без обзира побегне у шуму, професор са Института је дошао до другачијег закључка. Он тврди да тест са Норманом показује да су подаци много значајнији од алгоритма. Наглашава да се подаци које користимо да бисмо обучавали вештачку интелигенцију одражавају на њен поглед на свет и понашање. Коначно, ако вештачку интелигенцију изложимо погрешним и дискриминаторним подацима, такав ће бити и њен поглед на свет. Прошле године је у једном извештају наведено да је америчко судство користило програм заснован на вештачкој интелигенцији за процену ризичности и да је програм показао предрасуде према црним затвореницима. Ако се вештачка интелигенција обучава на искривљеним подацима, онда од ње можемо направити расисту.

У другом случају, софтвер обучаван на подацима са Гуглових вести развио је ставове карактеристичне за мизогинију. Кад су од њега тражили да заврши исказ, „Човек се према рачунарском програму односи као жена према…“, софтвер је одговорио „домаћици“. Џоана Брајсон са Одсека за рачунарство Универзитета у Бату, каже да машине могу да преузму ставове својих програмера. Пошто су они углавном хомогенизована група, постоји недостатак разноврсности у излагању подацима. Када учимо машине користећи своју културу, неминовно им преносимо и своје предрасуде. Не постоји математички процес којим се може достићи праведност и поштење. Предрасуда нема негативно значење у језику машина. То само значи да машине прикупљају учестале појмове.

Дејв Коплин из компаније „Мајкрософт“ сматра да је Норман добар пут којим треба ићи у разговорима о улози вештачке интелигенције у нашој култури. „Морамо почети са основним разумевањем процеса њеног функционисања. Алгоритме подучавамо користећи исте процесе које користимо кад подучавамо људе, дакле постоји опасност да нешто не радимо како треба. Када чујем одговор алгоритма, требало би да знам ко је тај алгоритам направио“, каже Коплин.

Рачунарски факултет Рачунарски факултет 011-33-48-079