Вештачка интелигенција треба да буде праведна, одговорна и разумљива

Пошто различите врсте вештачке интелигенције постају све присутније у савременом свету, кључна област истраживања требало би да нам обезбеди могућност да пратимо њихове одлуке, да их преиспитујемо и коначно уклонимо све укорењене предрасуде. Просветни радници у Америци су у октобру успели да победе у судском процесу који су водили против школске управе, а због рачунарског програма који је оцењивао њихов рад. Софтверски систем је процењивао наставнике у Хјустону тако што је упоређивао резултате њихових студената на тестовима са просечним резултатима на националном нивоу. Наставници чији су ученици постигли успех на тестовима добили су похвале, неки чак и бонусе. Они чији су ученици били испод просека добили су отказе. Програм никога није одушевио. Неки наставници су сматрали да су добили лоше оцене без било каквог разлога, али нису имали могућност да провере да ли је програм поуздан или није. Компанија која га је направила, САС институт, сматра да је алгоритам пословна тајна и нема намеру да открије како он функционише.

Због тога су наставници одлучили да цео случај предају суду и федерални судија је одлучио да коришћење програма EVAAS (Educational Value Added Assessment System – Систем за процену додатне вредности образовања) може да наруши грађанска права. Случај је решен тако што је школска управа наставницима исплатила одштету и одлучила да програм више не користи.

Међутим, закон нема исте аршине за различите случајеве. Када је 2013. полиција у Висконсину ухапсила Ерика Лумиса јер је возио аутомобил коришћен у пуцњави, добио је строгу затворску казну пошто је рачунарски алгоритам Compas проценио да постоји огромна вероватноћа да ће Лумис поново починити кривично дело. Лумис се жалио на пресуду, рекавши да не зна како програм ради. Његов аргумент је одбијен на Вишем суду у Висконсину.

Долазак вештачке интелигенције изазивао је забринутост због компјутеризованих одлука, посебно због тога што вештачка интелигенција прожима све више области друштвеног живота. Има је у банкарству, правном и пословном сектору, затим у националним здравственим институцијама и владама. Међутим, проблем није у њеној раширеност, већ правичности и одговорности.

Стручњаци су направили подужи списак случајева у којима је вештачка интелигенција погрешила, да ли због грешке у кодирању или укорењених предрасуда у подацима на којима је обучавана. Лоше вештачке интелигенције означиле су потпуно невине људе као терористе, послале болесне из болница кућама. Због њих су људи изгубили посао или им је одузета возачка дозвола. Други су избачени из бирачког списка или су власти јуриле погрешног човека који, наводно, није платио алиментацију. Сви су дискриминисани због имена, адреса, пола или боје коже.

Лоша вештачка интелигенција не мора да се направи намерно. На пример, компанија би могла да користи вештачку интелигенцију (коју би обучавала на подацима о запосленима који су напредовали до највиших положаја) да би претражила биографије и тако пронашла најбоље кандидате. Ако је радно окружење у компанији повољно и здраво, вештачка интелигенција ће уочити најбоље кандидате, али ако није, могла би предложити људе који не би презали ни од чега само да добију унапређење.

Отварање црне кутије

У последње време стручњаци се највише баве следећим областима вештачке интелигенције: праведност, одговорност и разумљивост. Није ни чудо, пошто су већину система вештачке интелигенције направиле приватне компаније које не дозвољавају никоме са стране увид у рад њихових програма. Поред тога, многе вештачке интелигенције користе толико компликоване неуронске мреже да ни сами аутори не могу да објасне како су дошле до таквих одговора. Одлуке долазе из „црне кутије“ и мора им се веровати „на реч“. Међутим, то и није тако страшно кад нам вештачка интелигенција предлаже нови наставак серије „Игра престола“, али улози су много већи кад треба да вози аутомобил, утврди обољење или има одлучујућу реч у нечијем запошљавању или одласку у затвор.
Прошлог месеца, Институт за вештачку интелигенцију на Универзитету у Њујорку који се бави њеним друштвеним утицајем, предложио је организацијама у јавном сектору које се баве образовањем, здравством, судством и социјалном заштитом да забране коришћење црне кутије вештачких интелигенција јер се њихове одлуке не могу објаснити.

Кејт Крофорд, суоснивач института, каже да се системи који немају јавну одговорност не могу користити у областима високог ризика. У таквим случајевима, потребно је прво омогућити тестирање таквих система пре коришћења. У пробном периоду би се могле уочити грешке и предрасуде које би се одмах кориговале.

Компаније које се баве савременим технологијама свесне су да ће их закони и притисак јавности приморати да објасне своје одлуке, које би и програмери желели да схвате. Професор машинског учења на Техничком универзитету у Берлину Клаус-Роберт Милер заједно са својим тимом направио је контролни програм који анализира одлуку коју је донела вештачка интелигенција тако што иде у супротном смеру и пролази кроз неуронску мрежу програма да би открио како је одлука донета.

Да би тестирали програм, користили су две врхунске вештачке интелигенције које су препознавале коње у огромној галерији слика коња. Једна се усредсредила на карактеристична обележја животиње, док је друга своју одлуку заснивала на гомили пиксела у доњем левом углу сваке слике. Пиксели су, наиме, садржавали записе ауторских права. Друга вештачка интелигенција је радила непогрешиво, али мотиви су јој били потпуно погрешни. Због тога је неопходно отворити црну кутију јер треба да будемо сигурни да смо добили праве одговоре који су исправно мотивисани.

Постоје и другачији предлози за унапређење функционисања вештачке интелигенције. Уместо откривања унутрашњих процеса, требало би испитати шта је потребно урадити да би се променила одлука коју је донела вештачка интелигенција.

У сваком случају, стручњаци се слажу да коришћење вештачке интелигенције треба регулисати законима и да у том процесу одговорну улогу треба да преузме влада. Европа је знатно испред остатка света у регулисању коришћења вештачке интелигенције и заштити грађана од лоше креираних или коришћених система. У мају следеће године, према ГДПР (Генерал Дата Протецтион Регулатион) људи ће имати право да знају да ли компаније доносе аутоматизоване одлуке које директно утичу на њих. Исто тако, имаће право да траже објашњење одлуке и да је преиспитају. Међутим, ова европска регулатива неће бити толико моћна колико на први поглед изгледа. Грађани ће имати право да сазнају ко доноси одлуке само пре њеног доношења, али не и после тога. Свака одлука се може преиспитивати само ако је цео процес у потпуности аутоматизован. Ако бар негде у процесу доношења одлуке учествује човек, грађани то право губе.
Постоје и предлози о оснивању независних комисија које би имале увид у вештачке интелигенције у различитим организацијама да би могле да дођу до одређених објашњења, на основу којих би се издавале потврде да се могу користити у критичним областима као што су медицина, судство и аутономна возила јер испуњавају прописане безбедносне стандарде.

Због веома раширене употребе вештачке интелигенције која све више прожима многобројне области друштвеног живота, стручњаци се слажу да би регулисањем њене употребе требало да се баве највиши органи управе у државама у којима се она користи.

Рачунарски факултет Рачунарски факултет 011-33-48-079