Наоружање на базу вештачке интелигенције

Илон Маск, оснивачи компаније „Дипмајнд“ и многи други потписали су обећање да неће развијати системе наоружања засноване на вештачкој интелигенцији!

Лидери у области савремених технологија, укључујући Илона Маска и три оснивача огранка „Дипмајнд“ компаније „Гугл, потписали су гаранцију да никада неће развијати „смртоносно аутономно оружје“. То је најновији корак који је направило незванично и глобално удружење научника и директора да би изразили своје противљење развоју такве технологије. Обећање упозорава да системи наоружања који користе вештачку интелигенцију да би „одабрали и напали мете без људског мешања“ представљају моралну и практичну претњу. Према речима потписника, неморално је „препустити машини доношење одлуке о одузимању људског живота“. Што се тиче практичне претње, кажу да би ширење таквог наоружања „опасно дестабилизовало сваку државу и појединца“.
Обећање је објављено данас на Међународној удруженој конференцији о вештачкој интелигенцији која се одржава у Стокхолму у организацији Института „Будућност живота“, истраживачке институције која се бори за ублажавање егзистенцијалних опасности по људску врсту. Институт је претходно објавио писма појединих потписника и обраћао се организацији Уједињених нација да би размотрила доношење нових закона у вези са „смртоносним аутономним оружјем“ (енгл. ЛАWС). Ово је први пут да аутори писама појединачно обећавају да неће развијати такву технологију.

Међу потписницима се налазе: Илон Маск, директор компанија „Спејсекс“ и „Тесла“; Шејн Лег, Мустафа Сулејман и Демис Хасабис, три суоснивача „Гуглове компаније „Дипмајнд“; Јан Талин, оснивач „Скајпа“ и многи светски признати и чувени научници који се баве вештачком интелигенцијом укључујући и Стјуарта Расела, Јошуа Бенгиа и Јиргена Шмидхубера.

Макс Тегмарк, потписник обећања и професор физике на Масачусетском технолошком институту, изјавио је да обећање показује да су водећи стручњаци за вештачку интелигенцију „прешли са речи на дела“. Рекао је да је обећање урадило оно што политичари нису, а то је да су постављене строге границе развоју вештачке интелигенције у војне сврхе. „Оружје које може само да одлучи да ли ће убијати људе одвратно је и опасно колико и биолошко и требало би се према њему понашати на исти начин“, рекао је Тегмарк.

До сада су сви покушаји да се организује подршка глобалном регулисању аутономног оружја остали без резултата. Поборници су предложили да на смртоносно аутономно оружје треба поставити забрану као што је то урађено са хемијским наоружањем и нагазним минама. Међутим, не треба заборавити да је изузетно тешко одредити шта сачињава аутономни систем. На пример, минобацач може да нациља појединца, али не може сам да пуца док човек то не одлучи.

Истакли су да би доношење одговарајућег закона представљало велики изазов пошто се технологија за развој аутономног оружја изузетно проширила. Штавише, државе које су најдаље стигле у њеном развоју (као Кина и Америка) немају баш никакав мотив да подрже такав закон. Чула су се и стручна мишљења да потписано обећање неће имати значајнијег утицаја на међународну политику јер јој недостаје одрживо ангажовање стручњака за вештачку интелигенцију у објашњавању разлога за њихову забринутост због ширења аутономног наоружања. Уз то, већина влада се слаже са главним постулатима обећања – да појединци не смеју да развијају системе вештачке интелигенције који ће нападати појединце – и да је технологија већ у широкој употреби у војне одбрамбене сврхе. Бар тридесет држава поседује аутономно наоружање које би се користило у случају одбране од ракета и пројектила.

Иако смо свесни да се међународни закони неће ускоро појавити, недавни догађаји су нам показали да организовани и уједињени протести могу донети резултате (запослени у „Гуглу“ против сарадње са „Пентагоном“ или претња бојкотом Универзитета „КАИСТ“ у Јужној Кореји због развијања вештачке интелигенције у војне сврхе).

Треба напоменути да у оба случаја, организације нису престале са развијањем војног наоружања заснованог на вештачкој интелигенцији, али оног које није смртоносно. Ипак, обећање да машина неће сама бирати кога ће да убије боље је од никаквог обећања.

Цео текст обећања гласи:

Вештачка интелигенција игра све важнију улогу у војним системима. Сви грађани, политичари и вође би требало да се упознају са разликама између прихватљиве и неприхватљиве употребе вештачке интелигенције.

У том смислу, ми, доле потписани, слажемо се да одлука о одузимању људског живота никада не би требало да буде препуштена машини. Морална компонента таквог става односи се на то да не би требало да препустимо машинама да доносе одлуке о животу и смрти за које други – или нико – не би био одговоран.

Практични аргумент који подржава такав став је да би смртоносно аутономно оружје које би одабирало и циљало мете без људског мешања дестабилизовало сваку државу и појединца. Хиљаде стручњака за вештачку интелигенцију слаже се да би смртоносно аутономно оружје постало снажно средство насиља и угњетавања, посебно ако би било повезано са надзором и системима података, кад би било ослобођено опасности, одговорности и потешкоћа због одузимања људског живота.

Штавише, смртоносно аутономно оружје има потпуно другачије особине од нуклеарног, хемијског и биолошког наоружања, а једностране акције појединачних група могле би лако да подстакну трку у наоружању коју међународна заједница не би могла да контролише јер не поседује техничка средства и системе глобалног управљања. Осуђивање и спречавање такве трке у наоружању требало би да буде на врху приоритета за очување националне и глобалне безбедности.

Ми, доле потписани, позивамо владе и њихове председнике да створе будућност којом ће владати строге међународне норме, правила и закони против смртоносног аутономног оружја. Пошто тога тренутно нема, одлучили смо да сами поставимо високе стандарде: обећавамо да никад нећемо учествовати нити подржавати развој, производњу, трговину и употребу смртоносног аутономног оружја. Молимо све технолошке компаније и организације као и државне вође, законодавце и све појединце да нам се придруже у овом обећању.

Двадесет и шест земаља у организацији Уједињених нација је независно од тог обећања одлучило да подржи забрану употребе смртоносног аутономног оружја, а то су: Алжир, Аргентина, Аустрија, Боливија, Бразил, Чиле, Кина, Колумбија, Костарика, Куба, Џибути, Еквадор, Египат, Гана, Гватемала, Ватикан, Ирак, Мексико, Никарагва, Пакистан, Панама, Перу, Палестина, Уганда, Венецуела и Зимбабве.

Рачунарски факултет Рачунарски факултет 011-33-48-079