ВАЖНА ОБАВЕШТЕЊА

ОНЛАЈН НАСТАВА У ВАНРЕДНОМ СТАЊУ

Рачунарски факултет је већ од 9 сати ујутру 16. марта, 12 сати након објављивања ванредног стања, у потпуности прешао са класичног начина извођења наставе на онлајн наставу. Онлајн настава изводи се уживо и интерактивно по распореду часова, при чему студенти у току наставе постављају питања и добијају одговоре на њих (Примери предавања и вежби онлајн наставе). После прве недеље, реакција студената је да је овакав начин извођења наставе веома делотворан, ефикасан, занимљив и, свакако, „удобнији“, као и да би у неком облику могао да буде задржан и после ванредног стања.

ПРИПРЕМНА НАСТАВА ЗА УПИС

Сва припремна настава за упис на Рачунарски факултет је од 16. марта онлајн. Поред информатике, која је већ била преко интернета и пре ванредног стања, сада и припремну наставу за математику, као и припрему за студијски програм Рачунарски дизајн, потенцијални студенти могу да прате од куће.

КОНТАКТ

Због ванредног стања, на Рачунарском факултету нема ниједног запосленог, па је сва комуникација могућа једино преко мејла.

Вештачка интелигенција ће одлучити да ли ћете добити посао

Вештачка интелигенција се користи да привуче потенцијалне кандидате за посао и одреди да ли они који су се пријавили одговарају постављеним захтевима радног места. Ипак, да ли је дорасла том задатку? И док родитељи користе вештачку интелигенцију за прегледање налога на друштвеним медијима потенцијалних дадиља и бескрајног низа чланака који објашњавају како радна биографија може да „победи робота“, можда се питате да ли ће вам робот понудити следећи посао. Још нисмо дотле дошли, али послодавци све више користе вештачку интелигенцију да би направили први круг резова и утврдили да ли вам је понуђен оглас за посао. Ти алати, често обучени на подацима прикупљеним о претходним или сличним кандидатима, могу послодавцу олакшати доношење одлуке о запошљавању оних који су се пријавили на оглас. Прошле године 67 посто анкетираних менаџера кадровске службе и особља задуженог за запошљавање које је анкетирао ЛинкедИн рекли су да им је вештачка интелигенција уштедела драгоцено време. Ипак, критичари тврде да такви системи могу увести пристрасност, недостатак одговорности и транспарентности и њихова прецизност није загарантована. Узмимо на пример компанију ХиреВуе са седиштем у Јути, која продаје видео платформу за разговор за посао која може да користи вештачку интелигенцију за процену кандидата и, како тврди, предвиђа вероватноћу да исти ти кандидати постигну упех на неком радном месту. Компанија каже да користи психологе који су у њој запослени да би помогли у развијању прилагођених алгоритама за процену идеалних особина за одређено радно место на које клијент (обично компанија) треба да запосли кандидата, попут представника продаје или инжењера рачунарства.

Тај алгоритам се, затим, користи за анализу одговора појединачних кандидата на одабрана питања у снимљеном видео-интервјуу, при чему се вреднују вербални одговори и, у неким случајевима, изрази лица. ХиреВуе тврди да алат – који користи око 100 клијената, укључујући Хилтон и Унилевер – много боље предвиђа одговарајуће кандидате за посао од људи који обављају исте структуриране разговоре. Ипак, прошлог месеца, адвокати Центра за електронску приватност информација (EPIC), непрофитне организације за заштиту приватности, поднели су жалбу Федералној трговинској комисији, подстичући агенцију да истражи компанију због потенцијалне пристрасности, нетачности и недостатка транспарентности. Такође је оптужила ХиреВуе да се укључила у „обмањујуће трговинске поступке“, јер компанија тврди да не користи препознавање лица. (EPIC тврди да је компанијин процес анализе лица, у ствари, технологија препознавања лица.).

Тужба прати увођење Закона о алгоритамској одговорности у Конгресу почетком ове године, којим би Федерална трговинска комисија добила овлашћење да креира прописе за проверу такозваних „аутоматизованих система одлучивања“ због пристрасности. У међувремену, Комисија за једнаке могућности запошљавања (EEOC) – федерална агенција која се бави дискриминацијом при запошљавању – сада, наводно, истражује најмање два случаја дискриминације који укључују алгоритме одлучивања о запошљавању, у складу са Блумберговим законом.

Вештачка интелигенција се може појавити током процеса избора кандидата и њиховог запошљавања

Послодавци могу да користе вештачку интелигенцију током процеса запошљавања, од оглашавања и привлачења потенцијалних кандидата до предвиђања њихове успешности на радном месту.  Многе компаније користе програм ЛинкедИн Рецруитер, популарно средство које користи вештачку интелигенцију за рангирање кандидата. Слично томе, платформа за запошљавање ЗипРецруитер користи вештачку интелигенцију да би упарила кандидате са сличним пословима који су потенцијално одговарајући на основу особина које су подносиоци захтева поделили са платформом – попут својих вештина, искуства и локације – и претходних интеракција између сличних кандидата и потенцијалних послодаваца На пример, због тога што сам се прошле године пријавио за неколико послова предавача на платформи ZipRecruiter у Сан Франциску, и даље добијам поруке е-поште са платформе која рекламира сличне послове у околини.

Све у свему, компанија каже да је њена вештачка интелигенција обучавана на више од 1,5 милијарди случајева интеракција између послодаваца и кандидата. Платформе као што су Arya – које су користиле компаније Home Depot и Dison – иду још даље и користе машинско учење да би пронашли кандидате на основу података који би могли бити доступни у интерној бази предузећа, јавним одборима за запошљавање, друштвеним платформама као што је Фејсбук и ЛинкедИн, и друге профиле доступне на отвореној мрежи.

Arya тврди да је чак у стању да предвиди да ли ће запослени напустити свој стари посао и преузети нови, на основу података које прикупи о кандидату, као што су њихова унапређења, кретање између претходних радних места и грана привреде, као и да ли његове особине одговарају новом радном месту. Ипак, вештачка интелигенција не ради само иза кулиса. Ако сте се икада пријавили за посао, а затим сте учествовали у текстуалном разговору, вероватно сте разговарали са роботом. Користе се за разумевање природног језика и могу помоћи у аутоматизацији процеса обавештавања претходних кандидата о новим радним местима у компанији или у откривању да ли кандидат испуњава основне захтеве радног места – рецимо, да ли је расположив. Такви кандидати се могу контактирати преко е-поште, као и путем апликација за размену порука као што су Фејсбук и WhatsApp.

Још једна, све присутнија, употреба вештачке интелигенције у одабиру кандидата за посао је процена талента и личности. При том се користе одређене рачунарске игре, као она у којој кандидат треба да притисне тастер за размак кад год на екрану трепери црвени круг, али не и зелени. Те игре су намењене предвиђању „когнитивних и личних особина кандидата“.
Присталице кажу да су системи вештачке интелигенције бржи и могу узети у обзир информације које људи не могу брзо обрадити Ти алати помажу кадровским службама да се брже крећу кроз велике базе кандидата и коначно штеде новац. Присталице кажу да могу бити праведнији и темељнији од људи који потроше много времена док прегледају стотине резимеа и пропратних писама. Алати могу аутоматски да препознају особине у пријавним материјалима из претходних успешних запошљавања и потраже назнаке тих особина међу материјалима које су поднели нови кандидати.

Присталице алата за запошљавање такође тврде да се вештачка интелигенција може користити да се избегну људске пристрасности, као што је несвесна пристрасност према дипломираним студентима одређеног универзитета, или неповољан став према женама или расној мањини. Они тврде да вештачка интелигенција може помоћи у елиминисању информација у вези са идентитетом кандидата, као што су његово име, старост, пол или школа, и поштеније размотри кандидата.

Алати вештачке интелигенције одраз су оних који су их направили и обучили

Квалитет тих система вештачке интелигенције зависи од података на којима су обучавани и људи који су их направили. Ако се алат машинског учења за прегледање биографија обучи на историјским подацима, као што су биографије прикупљене од претходно ангажованих кандидата, систем ће наследити и свесне и несвесне склоности руководилаца за запошљавање који су извршили тај избор. Тај приступ би могао да помогне у проналажењу врхунских, висококвалификованих кандидата. Постоје и упозорења да метод, такође, може да покупи „блесаве узорке који су ипак стварни и истакнути у скупу података“.

Међутим, системи могу научити да буду расисти, сексисти и пристрасни на друге непримерене начине. На пример, Ројтерс је прошле године објавио да је компанија Амазон направила алгоритам за запошљавање који је ненамерно тежио да фаворизује мушке кандидате над кандидаткињама за одређена радна места. Систем је обучаван на биографијама које су десет година компанији подносили, углавном, мушкарци. (Портпарол компаније Амазон рекао је да се систем никада није користио и напуштен је из неколико разлога, укључујући и примитивну природу алгоритама.)

Ко регулише те алате?

Адвокати који се баве радним односима кажу да вештачка интелигенција и системи за избор кандидата засновани на алгоритмима подлежу Јединственим смерницама о процедури одабира запослених, смерницама које су 1978. године поставиле савезне агенције које управљају стандардима избора кандидата за посао у компанијама и процене запослености.
Многи од тих алата, наводно, поштују одређена правила за избор радника. Једно од правила се користи за упоређивање стопе одабира демографских група кандидата и истраживање да ли су критеријуми одабира могли негативно утицати на заштићену мањинску групу.

Ипак, стручњаци су приметили да правило представља само један тест и наглашавају да положени тест не подразумева да ти алати раде оно што они тврде. Систем који је случајно бирао кандидате могао би да прође тест.

У случају против компаније HireVue, EPIC тврди да компанија није успела да испуни утврђене смернице транспарентности вештачке интелигенције, укључујући принципе вештачке интелигенције које је изнела Организација за економску сарадњу и развој и које су подржале Сједињене Државе заједно са још четрдесет и једном земљом. ХиреВуе каже да поштује стандарде које су поставиле Јединствене смернице, као и смернице које постављају друге професионалне организације. Компанија, такође, каже да су њени системи обучени на разноврсном скупу података и да су њени алати помогли клијентима да повећају разноликост свог особља.

На државном нивоу, Илиноис је направио одређени помак у промоцији транспарентне употребе тих алата. У јануару ће ступити на снагу Закон о видео-интервјуу заснованом на вештачкој интелигенцији, који захтева да послодавци који користе технологију видео-анализе засноване на вештачкој интелигенцији обавесте, објасне и добију пристанак кандидата.
Ипак, стручњаци кажу да мало компанија „садржајно и детаљно“ објављује методологије које се користе у њиховим ревизијама пристрасности. Није им познато да је нека компанија објавила резултате ревизије коју је извршила трећа страна.

У међувремену, сенатори су препустили Комисији за једнаке могућности запошљавања да истражи могу ли пристрасни алгоритми за анализу лица кршити законе против дискриминације, а стручњаци су претходно упозорили агенцију на ризик од алгоритамских пристрасности. Међутим, Комисија тек треба да објави неке посебне смернице у вези са алгоритамским одлучивањем или алатима заснованим на вештачкој интелигенцији.

Стручњаци наглашавају потенцијалну предност за кандидате. Ако законодавци једног дана натерају компаније да објаве резултате својих система вештачке интелигенције за избор запослених, кандидати за посао могли би да стекну нови увид у то како да побољшају своје пријаве. Коначно, пошто је запошљавање изузетно друштвени процес, компаније не би требало да га у потпуности препусте технологији.