ВАЖНА ОБАВЕШТЕЊА

ОНЛАЈН НАСТАВА У ВАНРЕДНОМ СТАЊУ

Рачунарски факултет је већ од 9 сати ујутру 16. марта, 12 сати након објављивања ванредног стања, у потпуности прешао са класичног начина извођења наставе на онлајн наставу. Онлајн настава изводи се уживо и интерактивно по распореду часова, при чему студенти у току наставе постављају питања и добијају одговоре на њих (Примери предавања и вежби онлајн наставе). После прве недеље, реакција студената је да је овакав начин извођења наставе веома делотворан, ефикасан, занимљив и, свакако, „удобнији“, као и да би у неком облику могао да буде задржан и после ванредног стања.

ПРИПРЕМНА НАСТАВА ЗА УПИС

Сва припремна настава за упис на Рачунарски факултет је од 16. марта онлајн. Поред информатике, која је већ била преко интернета и пре ванредног стања, сада и припремну наставу за математику, као и припрему за студијски програм Рачунарски дизајн, потенцијални студенти могу да прате од куће.

КОНТАКТ

Због ванредног стања, на Рачунарском факултету нема ниједног запосленог, па је сва комуникација могућа једино преко мејла.

Грешити је људски – да ли се зато бојимо машина које могу направити мање грешке?

Ако се алгоритамска пристрасност може лакше поправити него људске предрасуде, зашто и даље имамо проблем са алгоритмима? Стручњаке за вештачку интелигенцију највише узнемирује чињеница да се наводно „интелигентне“ машине процењују по много вишим стандардима него људи. Узмите, на пример, аутономна возила. До сада су прешла милионе километара и учествовала у малом броју несрећа у којима је мали број људи смртно страдао. Ипак, кад год аутономно возило некога убије, диже се велика бука, док сваке године у Сједињеним Државама скоро 40.000 људи погине у сударима у уобичајеним возилима. С друге стране, они који подржавају вештачку интелигенције жале се да се сви на овом свету баве алгоритамском пристрасношћу: начином на који аутоматизовани системи који доносе одлуке утичу на расне, родне и друге предрасуде садржане у скуповима података на којима су били обучени. Па ипак, друштво је очигледно задовољно да издржи задивљујућу ирационалност и каприциозност многих одлука које су донели људи. Ако сте, на пример, затвореник који подноси захтев за условну слободу, боље би вам било да се надате да је (људски) судија добро расположен (јер је управо јео) када треба да размотри ваш случај. Фасцинантна емпиријска студија, која је спроведена 2011. године открила је да „проценат повољних одлука постепено опада са око 65% на готово нулу у току сваке сесије доношења одлука и нагло се враћа на око 65% после паузе“. Наша открића сугеришу да на судске пресуде могу да утичу спољашње променљиве које не би требало да имају утицаја на законске одлуке. „С обзиром на то да вештачкој интелигенцији не треба ручак, може ли бити доследнија у доношењу одлука о одобравању условне слободе?“

У процењивању расправе о томе да ли је људска интелигенција увек супериорна над вештачком разноликошћу, да ли ми, људи, само демонстрирамо колико можемо бити каприциозни и ирационални? Да, кажу стручњаци за обраду бихевиоралних података. У једном часопису на интернету појавио се злобно сатирични чланак у коме се поставља следеће питање о вештачкој интелигенцији: „Пре него што људи постану стандардни доносиоци одлука“, пише, „морамо размотрити ризике и осигурати да примена људских система одлучивања не наноси обимнију штету “ У чланку се наводе четири основна начела која би требало применити пре него што омогућимо људима да доносе критичне одлуке. Прво је избегавање пристрасности.

То је тешко за људе, јер смо подложни широком спектру когнитивних пространости. Друго, одлуке које доносе људи треба да буду транспарентне, објашњиве и одговорне. Заиста, али има још нешто. Људи су често безосећајни и иако могу „створити утисак транспарентности кроз вербална и писмена објашњења која нуде, постоје снажни докази да се тим објашњењима не може веровати да пружају истинску основу за одлуку“. Људе можемо посматрати као црне кутије, али, свакако, имају много хуманији приступ од својих чисто алгоритамских колега. Треће, људско одлучивање треба да буде бар толико добро као одлучивање вештачке интелигенције или алтернатива машинског учења. Понекад се испостави да није.

Коначно, људске одлуке треба да буду доследне. И са тим се боримо, иако се судије труде да свој посао обаве што најбоље могу. Две различите особе суочене са истом одлуком често ће доћи до другачијег закључка. Иста особа суочена са процесом одлучивања у различитим приликама такође ће често одлучивати недоследно. Поређења ради, машине би биле неумољиво доследне, бар у принципу. Шта можемо закључити из свега тога? Пре него што људи постану стандардни доносиоци одлука, морамо размотрити ризике и осигурати да примена људских система за доношење одлука не наноси обимнију штету.

За све присталице вештачке интелигенције све што је наведено представља врло позитивне елементе и, наравно, измами им осмех на лице, али ту се налази и озбиљна предност таквог доношења одлука. Наиме, иако је пристрасност својствена свим системима машинског учења – и подједнако је уобичајена као у системима у којима људи одлучују – ипак, лакше је поправити пристрасне алгоритме него пристрасне људе.

То је, у сваком случају, закључак неколико емпиријских студија расне пристрасности у запошљавању и здравству, објављених у једном америчком часопису. Показало се да је откривање алгоритамске пространости релативно једноставно – у основи је статистичка вежба. „Процес је био технички и понављао се и није захтевао ни прикривеност ни сналажљивост“, написао је један стручњак. С друге стране, људи у систему били су друга прича. Истраживачи су их сматрали „недокучивим“ и открили да „мењање људи и умова људи нису једноставни“. Промена пристрасних алгоритама била је „лакша од промене људи: софтвер на рачунарима се може ажурирати; процеси у нашим мозговима до сада су се показали много мање флексибилним“.

Ништа од свега што смо навели не би требало да буде изненађење за оне који знају било шта о људској природи. Наша политика нам говори да би неки људи радије умрли него што би се предомислили. Постоји нешто изразито људско у недоследности, когнитивном нескладу и чистој проницљивости. И можда се зато бојимо вештачке интелигенције: јер би била све што ми нисмо.