Veštačka inteligencija se koristi da privuče potencijalne kandidate za posao i odredi da li oni koji su se prijavili odgovaraju postavljenim zahtevima radnog mesta. Ipak, da li je dorasla tom zadatku? I dok roditelji koriste veštačku inteligenciju za pregledanje naloga na društvenim medijima potencijalnih dadilja i beskrajnog niza članaka koji objašnjavaju kako radna biografija može da „pobedi robota“, možda se pitate da li će vam robot ponuditi sledeći posao. Još nismo dotle došli, ali poslodavci sve više koriste veštačku inteligenciju da bi napravili prvi krug rezova i utvrdili da li vam je ponuđen oglas za posao. Ti alati, često obučeni na podacima prikupljenim o prethodnim или sličnim kandidatima, mogu poslodavcu olakšati donošenje odluke o zapošljavanju onih koji su se prijavili na oglas. Prošle godine 67 posto anketiranih menadžera kadrovske službe i osoblja zaduženog za zapošljavanje koje je anketirao LinkedIn rekli su da im je veštačka inteligencija uštedela dragoceno vreme. Ipak, kritičari tvrde da takvi sistemi mogu uvesti pristrasnost, nedostatak odgovornosti i transparentnosti i njihova preciznost nije zagarantovana. Uzmimo na primer kompaniju HireVue sa sedištem u Juti, koja prodaje video platformu za razgovor za posao koja može da koristi veštačku inteligenciju za procenu kandidata i, kako tvrdi, predviđa verovatnoću da isti ti kandidati postignu upeh na nekom radnom mestu. Kompanija kaže da koristi psihologe koji su u njoj zaposleni da bi pomogli u razvijanju prilagođenih algoritama za procenu idealnih osobina za određeno radno mesto na koje klijent (obično kompanija) treba da zaposli kandidata, poput predstavnika prodaje или inženjera računarstva.
Taj algoritam se, zatim, koristi za analizu odgovora pojedinačnih kandidata na odabrana pitanja u snimljenom video-intervjuu, pri čemu se vrednuju verbalni odgovori i, u nekim slučajevima, izrazi lica. HireVue tvrdi da alat – koji koristi oko 100 klijenata, uključujući Hilton i Unilever – mnogo bolje predviđa odgovarajuće kandidate za posao od ljudi koji obavljaju iste strukturirane razgovore. Ipak, prošlog meseca, advokati Centra za elektronsku privatnost informacija ( EPIC ), neprofitne organizacije za zaštitu privatnosti, podneli su žalbu Federalnoj trgovinskoj komisiji, podstičući agenciju da istraži kompaniju zbog potencijalne pristrasnosti, netačnosti i nedostatka transparentnosti. Takođe je optužila HireVue da se uključila u „obmanjujuće trgovinske postupke“, jer kompanija tvrdi da ne koristi prepoznavanje lica. ( EPIC tvrdi da je kompanijin proces analize lica, u stvari, tehnologija prepoznavanja lica.).
Tužba prati uvođenje Zakona o algoritamskoj odgovornosti u Kongresu početkom ove godine, kojim bi Federalna trgovinska komisija dobila ovlašćenje da kreira propise za proveru takozvanih „automatizovanih sistema odlučivanja“ zbog pristrasnosti. U međuvremenu, Komisija za jednake mogućnosti zapošljavanja ( EEOC ) – federalna agencija koja se bavi diskriminacijom pri zapošljavanju – sada, navodno, istražuje najmanje dva slučaja diskriminacije koji uključuju algoritme odlučivanja o zapošljavanju, u skladu sa Blumbergovim zakonom.
Veštačka inteligencija se može pojaviti tokom procesa izbora kandidata i njihovog zapošljavanja
Poslodavci mogu da koriste veštačku inteligenciju tokom procesa zapošljavanja, od oglašavanja i privlačenja potencijalnih kandidata do predviđanja njihove uspešnosti na radnom mestu. Mnoge kompanije koriste program LinkedIn Recruiter, popularno sredstvo koje koristi veštačku inteligenciju za rangiranje kandidata. Slično tome, platforma za zapošljavanje ZipRecruiter koristi veštačku inteligenciju da bi uparila kandidate sa sličnim poslovima koji su potencijalno odgovarajući na osnovu osobina koje su podnosioci zahteva podelili sa platformom – poput svojih veština, iskustva i lokacije – i prethodnih interakcija između sličnih kandidata i potencijalnih poslodavaca Na primer, zbog toga što sam se prošle godine prijavio za nekoliko poslova predavača na platformi ZipRecruiter u San Francisku, i dalje dobijam poruke e-pošte sa platforme koja reklamira slične poslove u okolini.
Sve u svemu, kompanija kaže da je njena veštačka inteligencija obučavana na više od 1,5 milijardi slučajeva interakcija između poslodavaca i kandidata. Platforme kao što su Arya – koje su koristile kompanije Home Depot i Dison – idu još dalje i koriste mašinsko učenje da bi pronašli kandidate na osnovu podataka koji bi mogli biti dostupni u internoj bazi preduzeća, javnim odborima za zapošljavanje, društvenim platformama kao što je Fejsbuk i LinkedIn, i druge profile dostupne na otvorenoj mreži.
Arya tvrdi da je čak u stanju da predvidi da li će zaposleni napustiti svoj stari posao i preuzeti novi, na osnovu podataka koje prikupi o kandidatu, kao što su njihova unapređenja, kretanje između prethodnih radnih mesta i grana privrede, kao i da li njegove osobine odgovaraju novom radnom mestu. Ipak, veštačka inteligencija ne radi samo iza kulisa. Ako ste se ikada prijavili za posao, a zatim ste učestvovali u tekstualnom razgovoru, verovatno ste razgovarali sa robotom. Koriste se za razumevanje prirodnog jezika i mogu pomoći u automatizaciji procesa obaveštavanja prethodnih kandidata o novim radnim mestima u kompaniji или u otkrivanju da li kandidat ispunjava osnovne zahteve radnog mesta – recimo, da li je raspoloživ. Takvi kandidati se mogu kontaktirati preko e-pošte, kao i putem aplikacija za razmenu poruka kao što su Fejsbuk i WhatsApp.
Još jedna, sve prisutnija, upotreba veštačke inteligencije u odabiru kandidata za posao je procena talenta i ličnosti. Pri tom se koriste određene računarske igre, kao ona u kojoj kandidat treba da pritisne taster za razmak kad god na ekranu treperi crveni krug, ali ne i zeleni. Te igre su namenjene predviđanju „kognitivnih i ličnih osobina kandidata“.
Pristalice kažu da su sistemi veštačke inteligencije brži i mogu uzeti u obzir informacije koje ljudi ne mogu brzo obraditi Ti alati pomažu kadrovskim službama da se brže kreću kroz velike baze kandidata i konačno štede novac. Pristalice kažu da mogu biti pravedniji i temeljniji od ljudi koji potroše mnogo vremena dok pregledaju stotine rezimea i propratnih pisama. Alati mogu automatski da prepoznaju osobine u prijavnim materijalima iz prethodnih uspešnih zapošljavanja i potraže naznake tih osobina među materijalima koje su podneli novi kandidati.
Pristalice alata za zapošljavanje takođe tvrde da se veštačka inteligencija može koristiti da se izbegnu ljudske pristrasnosti, kao što je nesvesna pristrasnost prema diplomiranim studentima određenog univerziteta, или nepovoljan stav prema ženama или rasnoj manjini. Oni tvrde da veštačka inteligencija može pomoći u eliminisanju informacija u vezi sa identitetom kandidata, kao što su njegovo ime, starost, pol или škola, i poštenije razmotri kandidata.
Alati veštačke inteligencije odraz su onih koji su ih napravili i obučili
Kvalitet tih sistema veštačke inteligencije zavisi od podataka na kojima su obučavani i ljudi koji su ih napravili. Ako se alat mašinskog učenja za pregledanje biografija obuči na istorijskim podacima, kao što su biografije prikupljene od prethodno angažovanih kandidata, sistem će naslediti i svesne i nesvesne sklonosti rukovodilaca za zapošljavanje koji su izvršili taj izbor. Taj pristup bi mogao da pomogne u pronalaženju vrhunskih, visokokvalifikovanih kandidata. Postoje i upozorenja da metod, takođe, može da pokupi „blesave uzorke koji su ipak stvarni i istaknuti u skupu podataka“.
Međutim, sistemi mogu naučiti da budu rasisti, seksisti i pristrasni na druge neprimerene načine. Na primer, Rojters je prošle godine objavio da je kompanija Amazon napravila algoritam za zapošljavanje koji je nenamerno težio da favorizuje muške kandidate nad kandidatkinjama za određena radna mesta. Sistem je obučavan na biografijama koje su deset godina kompaniji podnosili, uglavnom, muškarci. (Portparol kompanije Amazon rekao je da se sistem nikada nije koristio i napušten je iz nekoliko razloga, uključujući i primitivnu prirodu algoritama.)
Ko reguliše te alate?
Advokati koji se bave radnim odnosima kažu da veštačka inteligencija i sistemi za izbor kandidata zasnovani na algoritmima podležu Jedinstvenim smernicama o proceduri odabira zaposlenih, smernicama koje su 1978. godine postavile savezne agencije koje upravljaju standardima izbora kandidata za posao u kompanijama i procene zaposlenosti.
Mnogi od tih alata, navodno, poštuju određena pravila za izbor radnika. Jedno od pravila se koristi za upoređivanje stope odabira demografskih grupa kandidata i istraživanje da li su kriterijumi odabira mogli negativno uticati na zaštićenu manjinsku grupu.
Ipak, stručnjaci su primetili da pravilo predstavlja samo jedan test i naglašavaju da položeni test ne podrazumeva da ti alati rade ono što oni tvrde. Sistem koji je slučajno birao kandidate mogao bi da prođe test.
U slučaju protiv kompanije HireVue , EPIC tvrdi da kompanija nije uspela da ispuni utvrđene smernice transparentnosti veštačke inteligencije, uključujući principe veštačke inteligencije koje je iznela Organizacija za ekonomsku saradnju i razvoj i koje su podržale Sjedinjene Države zajedno sa još četrdeset i jednom zemljom. HireVue kaže da poštuje standarde koje su postavile Jedinstvene smernice, kao i smernice koje postavljaju druge profesionalne organizacije. Kompanija, takođe, kaže da su njeni sistemi obučeni na raznovrsnom skupu podataka i da su njeni alati pomogli klijentima da povećaju raznolikost svog osoblja.
Na državnom nivou, Ilinois je napravio određeni pomak u promociji transparentne upotrebe tih alata. U januaru će stupiti na snagu Zakon o video-intervjuu zasnovanom na veštačkoj inteligenciji, koji zahteva da poslodavci koji koriste tehnologiju video-analize zasnovane na veštačkoj inteligenciji obaveste, objasne i dobiju pristanak kandidata.
Ipak, stručnjaci kažu da malo kompanija „sadržajno i detaljno“ objavljuje metodologije koje se koriste u njihovim revizijama pristrasnosti. Nije im poznato da je neka kompanija objavila rezultate revizije koju je izvršila treća strana.
U međuvremenu, senatori su prepustili Komisiji za jednake mogućnosti zapošljavanja da istraži mogu li pristrasni algoritmi za analizu lica kršiti zakone protiv diskriminacije, a stručnjaci su prethodno upozorili agenciju na rizik od algoritamskih pristrasnosti. Međutim, Komisija tek treba da objavi neke posebne smernice u vezi sa algoritamskim odlučivanjem или alatima zasnovanim na veštačkoj inteligenciji.
Stručnjaci naglašavaju potencijalnu prednost za kandidate. Ako zakonodavci jednog dana nateraju kompanije da objave rezultate svojih sistema veštačke inteligencije za izbor zaposlenih, kandidati za posao mogli bi da steknu novi uvid u to kako da poboljšaju svoje prijave. Konačno, pošto je zapošljavanje izuzetno društveni proces, kompanije ne bi trebalo da ga u potpunosti prepuste tehnologiji.