Мајкрософт добија ексклузивни приступ „опасној“ вештачкој интелигенцији

Компанија Мајкрософт је добила ексклузивну дозволу за коришћење језичког генератора GPT-3 заснованог на вештачкој интелигенцији који је у власништву компаније OpenAI. Претходна верзија, позната под називом GPT-2, представљена је у свим медијима као „сувише опасна да би могла да се пусти у употребу“. Истакнуте су и њене бројне могућности, укључујући и прављење веб-страница, преписивање лекова, одговарање на питања и писање чланака. Компанија Мајкрософт каже да ће „искористити своје техничке иновације за развој и испоруку напредних решења вештачке интелигенцију за своје купце“, иако није прецизно навела шта би све то могло да обухвати. „Обим комерцијалног и креативног потенцијала који се може откључати помоћу модела GPT-3 је огроман и пружа невероватне нове могућности – од којих већину још не можемо ни замислити“, написао је Кевин Скот, извршни потпредседник и главни технолошки директор компаније Мајкрософт.

„Непосредна помоћ људској креативности и домишљатости у областима као што су писање и састављање есеја, описивање и резимирање великих блокова дугачких низова података (укључујући и кôд), претварање природног језика у неки други језик – могућности су невероватне и могу бити ограничене само идејама и сценаријима које можемо да понудимо“, додао је. Компанија OpenAI је у свом блогу објаснила да договор неће утицати на приступ генератору GPT-3 преко компанијиног програмског интерфејса апликације, тако да ће постојећи и будући корисници модела моћи да наставе да стварају апликације. Компанија каже да је њен комерцијални модел добио десетине хиљада апликација. Генератор GPT-3 ће такође остати у ограниченој бета верзији како би стручњаци могли да тестирају могућности и ограничења модела.

Сарадња између две компаније већ постоји пошто OpenAI обучава своје програме вештачке интелигенције на услугама рачунарства у облаку Мицрософт Азуре, а прошле године је Мајкрософт постала ексклузивни добављач услуга рачунарства у облаку за компанију OpenAI. Програм компаније OpenAI сматран је изузетно опасним због тога што је, пошто би га снабдели делом текста, могао да предвиди речи које ће се даље појављивати толико прецизно да је његове поступке било тешко разликовати од поступака које би направио човек.

Пошто програм има такве, до сада невиђене могућности, могли би да га злоупотребе исламски џихадисти или екстремистичке групе да би направиле „синтетичку пропаганду“ у расистичке сврхе. OpenAI је забринута због многобројних могућих злоупотреба технологије и одлучила је да не објави модел који је у потпуности обучен, како је и изјавила у фебруару 2019. године. Неки су веровали да ће импресивне могућности алгоритма угрозити различите привредне гране или чак показати да има свест о свом постојању. Међутим, генерални директор компаније Сем Алтман рекао је да таква претеривања представљају само „опседнутост способностима технологије“. „Све је то импресивно, али и даље постоје врло озбиљне слабости, а понекад генератор прави врло глупе грешке“, додао је.