ВАЖНА ОБАВЕШТЕЊА 27.05.2020.

СТИПЕНДИЈЕ

Овогодишње стипендије на Рачунарском факултету изузетно ће бити додељене на основу резултата такмичења и ове и претходних школских година. Све остале информације са сајта и даље важе.

ПРИЈЕМНИ ИСПИТИ

Датуми пријемних испита су померени.
Пријемни испит из математике биће одржан 19.6.2020. у 10h, а из информатике 20.6.2020. у 10h.

УБРЗАНА ПРИПРЕМНА НАСТАВА ЗА УПИС (МАТЕМАТИКА)

Убрзана припремна настава из математике одржаће се од 1. до 12. јуна 2020. паралелно, и онлајн и у просторијама Факултета, по избору полазника.

КОНТАКТ

Од 18. маја секретаријат почиње да ради у просторијама Факултета од 9 до 17 часова (улаз Трг републике 5, V спрат), а комуникација је могућа и преко мејла sekretarijat@raf.rs.

ОНЛАЈН НАСТАВА У ВАНРЕДНОМ СТАЊУ

Рачунарски факултет је већ од 9 сати ујутру 16. марта, 12 сати након објављивања ванредног стања, у потпуности прешао са класичног начина извођења наставе на онлајн наставу. Онлајн настава из свих предмета на свим студијским програмима изводи се уживо и интерактивно по распореду часова, при чему студенти у току наставе постављају питања и добијају одговоре на њих (Примери предавања и вежби онлајн наставе). После прве недеље, реакција студената је да је овакав начин извођења наставе веома делотворан, ефикасан, занимљив и, свакако, „удобнији“, као и да би у неком облику могао да буде задржан и после ванредног стања. Факултет је у априлу из свих предмета организовао и онлајн проверу знања(колоквијуме).

Међународни Дан жена: како алгоритми могу да буду сексистички?

Иако је први алгоритам написала жена у 19. веку, данас можемо рећи да вештачка интелигенција дискриминише жене. После два века од првог написаног алгоритма, они сада „имају способност да нас врате неколико десетина година уназад кад је у питању равноправност полова“, објашњава Сузан Леви, истраживач са Универзитета у Даблину која је један од учесника пројекта који се бави спречавањем алгоритама вештачке интелигенције да уче о родној пристрасности. „Они могу да погоршају оне лоше, типично мушке ставове против којих се деценијама боримо у друштву“, додаје она.

Терет историје

Вештачка интелигенција учи из података који су доступни, а већина њих је пристрасна, каже Леви. Проблем је у томе што машине уче на основу података из последњих десет до двадесет година који могу несвесно репродуковати предрасуде из прошлости. Штавише, без укључивања новијих друштвених достигнућа у погледу полова и ставова, језик и фразеологија који се користе у подацима могу да оснаже застареле стереотипе. На пример, већина технологија вештачких интелигенција није чула за глобални феминистички покрет #MeToo нити за химну покрета жена у Чилеу „Силоватељ на твом путу“. „Настављамо да понављамо грешке из прошлости“, каже Сузан Леви.

Та пристрасност у програмирању утиче на свакодневни живот свих жена: од тражења посла до контролних пунктова на аеродромима.

Пионири у свету програмирања

Ада Лавлејс (1815-1852.) постала је први програмер у историји, век пре него што су се појавили рачунари. Средином деветнаестог века, британска математичарка написала је оно што се сматра првим алгоритмом за рачунарску машину коју је осмислио њен супруг, научник Чарлс Бебиџ. У ствари, многи од пионира у свету програмирања биле су жене. Сматрали су се бољим у малим задацима – као што је ENIAC programiranje (skraćenica za Electronic Numeric Integrator and Computer).

Као део тајног пројекта војске Сједињених Држава у Другом светском рату, шест жена програмирало је први електронски рачунар. Међутим, њихова имена су изостављена када је рачунар представљен јавности 1946. године.

Прекомерна заступљеност мушкараца у науци и технологији

Програмски сектор постао је доминантније мушки у осамдесетим годинама прошлог века. Чак и данас, мушкарци чине 59 процената европских научника и инжењера, како показују најновији подаци Еуростата. Та неједнакост нехотице је и несвесно била интегрисана у писање алгоритама. „Постоји велики проблем неједнакости полова, посебно у процесу машинског учења“, наглашава Левијева. „То значи да недостаје критичка перспектива.“ „Мислим да већина инжењера не жели да развије алгоритме који врше дискриминацију на основу пола или расе“, каже Левијева.

Ипак, то није само питање намере. Према речима Сузане Леви, најбоље је имати разноврсне програмске тимове да би се машине спречиле да прихватају такве предрасуде. „Знамо да тимови који нису разнолики не дају добре резултате.“ Левијева, такође, препоручује да технолошке компаније омогуће женским члановима својих тимова да тестирају производе.

Како алгоритми излежу жене дискриминацији?

Вештачка интелигенција и остале технологије које користе алгоритме данас значајно обликују наш живот и то свакодневно“, објашњава Џој Лиси Ранкин, водећи истраживач појмова рода, расе и моћи у вештачкој интелигенцији на институту у Њујорку. „То ретко разумемо зато што нам је технологија невидљива, а начин на који она делује није нимало транспарентан“, наставља она. Ти алгоритамски системи одређују, на пример, „ко има приступ важним ресурсима и предностима“, додаје она.

Један од најпознатијих случајева дискриминације на основу употребе вештачке интелигенције био је покушај компаније „Амазон“ да аутоматизује свој систем запошљавања нових радника. У 2018. години откривено је да је америчка мултинационална компанија одбацила алат вештачке интелигенције помоћу кога је четири године бирала кандидате који су се пријављивали за посао, јер је показивао склоност ка родној пристрасности.

Амазонови компјутерски модели били су обучавани тако да одбијају кандидате за посао на основу образаца у биографијама кандидата који су их доставили током десет претходних година. Међутим, сматрајући да је то индустрија којом доминирају мушкарци, већину тих биографија доставили су мушкарци, стварајући предрасуду у машинском учењу, тако да је вештачка интелигенција била наклоњенија мушким кандидатима.

„Избор биографија је веома проблематична област“, примећује Левијева. „Чак и ако кажете алгоритмима вештачке интелигенције да се не обазиру на пол, они ће пронаћи друге начине да то сазнају.“ Амазонов алгоритам одбацивао је биографије које су обухватале речи повезане са женским родом, чак и у хобијима кандидата, као што је „капитен женског рагби тима“.

Није ствар само у полу, већ та врста алгоритма кажњава и сваку различитост, тако што се приклања низу образаца који на крају фаворизују најповољнији и најзаступљенији део друштва: мушкарце беле расе. Системи за препознавање лица су још један проблематични алгоритам, објашњава Левијева. „Ако сте жена и тамнопути сте, онда сте у још већем проблему.“

Последице могу бити незнатне. На пример, ваш телефон кошта нешто више јер поседује могућност да га откључате технологијом за препознавање лица, али може бити и много озбиљније кад наиђете на проблем при проласку поред безбедносних камера на аеродрому. „Ако сте белац, нећете дуго чекати на аеродромској провери, али ако сте тамнопута жена, имаћете много веће шансе да се дуго задржите на аеродрому.“

Друга област у којој родно пристрасни алгоритми имају пресудан утицај на живот жена јесу претраживачи и друштвене мреже. „Они различито категоризују и третирају кориснике узимајући у обзир низ стереотипа“, каже Левијева. Најопасније је када се те процене користе за слање персонализованих огласа, посебно младима који лакше подлежу разним утицајима.

На пример, друштвена мрежа Фејсбук је белцима објављивала огласе за боље плаћене послове, док су женама и људима друге боје коже приказивани огласи за лошије плаћене послове. Кад у претраживач Гугл унесете „блацк гирлс“ или „Латинас“, добијете сексистичке или порнографске резултате. Можда би алгоритми могли да нам помогну у борби против сексизма уместо да га подстичу? Нови прописи Европске уније за развој вештачке интелигенције говоре о развијању свести, наводи Левијева. За такав процес биће потребно можда целих десет година.

Да би се то десило, морају бити укључени мултидисциплинарни тимови, у којима би се разматрала размишљања мушкараца и жена који су заступљени у тимовима. Алгоритми би нам, такође, могли помоћи у борби против дискриминације, укључујући родну пристрасност у процесу запошљавања. Машина би могла бити непристраснија од човека при избору кандидата – ако је научила да буде инклузивна.

Према речима Сузан Леви све би то било могуће извести јер заиста верује да алгоритми имају потенцијал да буду потпуно непристрасни.