2 милијарде долара на проширење обима коришћења вештачке интелигенције

Пентагон планира да потроши 2 милијарде долара на проширење обима коришћења вештачке интелигенције у наоружању. Званичници од рачунара траже да војним заповедницима објасне донете одлуке. Одсек Министарства одбране за напредна истраживања Сједињених Држава одлучио је да уложи до сада највећу количину новца у развијање система вештачке интелигенције у наоружању. Наиме, у следећих пет година, инвестираће две милијарде долара у, како је речено, нове напоре да се такви системи учине поузданијим и прихватљивијим за војне заповеднике. Последњег дана конференције у Вашингтону која је одржана поводом шездесетогодишњице постојања Пројектне агенције за напредна одбрамбена истраживања (ДАРПА) и улоге коју је имала у покретању интернета, њен директор је упознао јавност са новим улагањем агенције.

Агенција сматра да треба да се посвети проналажењу нових технолошких решења за војне проблеме. При том, стручњаци за технолошки развој у Трамповој администрацији снажно подржавају још веће коришћење вештачке интелигенције у америчком наоружању да би држава могла да одржи корак са руским и кинеским војним снагама. Према стандардима Пентагона, улагање Агенције је незнатно јер се очекује да ће, рецимо, трошкови набавке и одржавања борбених авиона еф-35 бити већи од једног билиона (1012) долара. Ипак, то је највеће улагање у вештачку интелигенцију до сада и сума отприлике одговара оној коју су Сједињене Државе уложиле у пројекат „Менхетн“ четрдесетих година прошлог века кад се стварало нуклеарно наоружање. Међутим, ако бисмо у прорачун укључили и инфлацију, могли бисмо да кажемо да би данас та сума износила око 28 милијарди долара.

У јулу је Буз Ален Хамилтон потписао уговор вредан 885 милиона долара према коме би следећих пет година требало да се посвети развијању некласификованих програма вештачке интелигенције са одбрамбеним циљевима. Споменимо и пројекат „Мавен“, један од највећих војних пројеката, који треба да унапреди способност рачунара у издвајању објеката са фотографија за војну употребу. И у њега треба уложити 93 милиона долара у 2019. години.

Пребацивање већег броја војних аналитичких процедура и потенцијално кључних одлука на рачунаре и алгоритме уграђене у наоружање које може насилно да делује на људе изазвало је опречна мишљења. Компанија „Гугл“ је предводила пројекат „Мавен“ све док њени радници нису организовали протест јер нису желели да раде на софтверу који може да помогне у одређивању циљева за оружано деловање. „Гугл“ ће обуставити рад чим истекне потписани уговор.

Док су „Мавен“ и остали пројекти вештачке интелигенције побољшали Пентагонов систем наоружања у области препознавања циљева и унапредили летове беспилотних летелица, борбени системи које покрећу рачунари и који могу спровести процедуре уништавања по сопственом нахођењу још нису одобрени. У стратешком документу који је Пентагон објавио у августу наводи се да ће напредак у технологији ускоро омогућити постојање таквог наоружања. „Министарство одбране још нема аутономни систем наоружања који може да тражи, препозна, прати, одабере и нациља мете независно од података које обезбеђује човек“, наводи се у документу који су потписали највиши званичници у Пентагону.

Ипак, „технологије које подржавају системе које не контролишу људи омогућиће развој и употребу аутономних система који ће независно одабирати и нападати мете смртоносном силом“ предвиђа извештај. Документ истиче да иако су системи вештачке интелигенције сасвим способни да одаберу мету и делују на њу ватреним оружјем, заповедници и даље невољно препуштају контролу платформама наоружања делимично и због недостатка поверења у машинско резоновање, посебно на бојном пољу где се могу појавити променљиви услови које машина и њени ствараоци никад раније нису сусрели.

„Тренутно, на пример, ако би војник затражио од неког система вештачке интелигенције, рецимо платформе за одабир мета, да објасни свој избор, могла би да пружи прецизну процену само за ту одлуку, рекао је директор Агенције Стивен Вокер новинарима након објаве новог улагања. Одговор машине је изражен у процентима, односно бројчано израженој вероватноћи да је мета коју је машина издвојила оно што је руковалац тражио.
„Покушавамо, међутим, да створимо вештачку интелигенцију која је способна да каже човеку „ово је мој одговор, и сад ћу ти објаснити због чега мислим да је то права одлука“ да би потом објаснила човеку због чега је донела такву одлуку“, рекао је Вокер.

Званичници Агенције нису сасвим прецизно објаснили како ће пројекат у који намеравају да уложе новац довести до тога да рачунари добију способност да објашњавају кључне одлуке људима на бојном пољу усред буке и гунгуле сукоба, али званичници су рекли да то и јесте најважније за будућност вештачке интелигенције у војној области.

Главни изазов је превазилажење те препреке која ће бити савладана кад вештачка интелигенција буде могла да објасни своје одлуке руковаоцима у реалном времену. Људско одлучивање и размишљање зависи од многобројних чинилаца, а не само од поштовања правила, у чему су машине савршене. Људима су потребне године да изграде етичке ставове и унапреде здраворазумско размишљање, што инжењери и даље покушавају да уграде у дигиталне машине.

“Вероватно нам је потребан огроман пројекат „Менхетн“ да бисмо створили систем вештачке интелигенције који би био способан као трогодишње дете“, рекао је Рој Брахман који је предводио програм развоја вештачке интелигенције у Агенцији који је трајао до 2005. године. „Имали смо експертске системе у прошлости и веома робусне роботичке системе и знамо како да препознамо слике у огромној бази података фотографија, али још нисмо успели да створимо целину укључујући и оно што људи с времена на време називају здравим разумом.“

Мајкл Хоровиц који је радио на питањима вештачке интелигенције као сарадник у кабинету министра за одбрану 2013. године, а сад је професор на универзитету у Пенсилванији, објаснио је у разговору да постоји велика забринутост због безбедности вештачке интелигенције и алгоритама који не могу да се прилагоде комплексној реалности због чега могу погрешно да функционишу и непредвидиво се понашају. Коначно, не можемо поредити Гугл претрагу и систем наоружања.

„Ако би системи вештачке интелигенције доказали да су способни да користе здрави разум“, додао је Хоровиц, „онда би их вероватно покушали да их искористе и сви други којима су потребни.“. Научни одбор за одбрану је 2016. године одобрио нагли развој вештачке интелигенције у војне сврхе и истакао да машине реагују брже од људи у војним сукобима. Међутим, такво брзо одлучивање изазивало је сумњу код оних који треба да се ослоне на те исте машине на бојном пољу.

Заповедници схватају да могу имати користи од бољих, уређенијих, свежијих и прецизнијих података које су добили захваљујући примени аутономије на ратовање, али изражавају и извесну забринутост, наводи се у извештају. Агенција није једини одсек Пентагона који финансира истраживање вештачке интелигенције. Трампова администрација се тренутно бави стварањем новог Удруженог центра за вештачку интелигенцију у Пентагону који би омогућио координацију свих програма на том пољу у Министарству одбране.

Ипак, финансијски план Агенције излази из оквира Центра. Штавише, Агенција тренутно надзире 25 програма који су усредсређени на истраживање вештачке интелигенције, али планира да убаци још новца преко свог новооснованог Програма за истраживање вештачке интелигенције који је објављен у јулу и који ће дати по милион долара сваком истраживачком подухвату који би се бавио процедурама подучавања система вештачке интелигенције које би јој омогућиле да разуме контекст, што би довело до много делотворнијег функционисања у комплексном окружењу. Вокер је рекао да је изузетно важно оспособити системе вештачке интелигенције да одлучују чак и кад су окружени хаосом и да после тога објасне своје одлуке својим руковаоцима… у ратном окружењу.“

Рачунарски факултет Рачунарски факултет 011-33-48-079