Autor: Pat Brans
Dok su neki IT lideri zatečeni nespremni za tu tehnologiju u nastajanju, drugi su bili dovoljno dalekovidi da uspostave radne okvire za upravljanje veštačkom inteligencijom kako bi stvari držali pod kontrolom. Ovde neki od njih dele sa nama svoje proaktivne strategije i naučene lekcije.
Softverska kompanija Planview sa sedištem u Austinu počela je da koristi generativnu veštačku inteligenciju za povećanje produktivnosti pre oko 18 meseci. Tokom tog perioda, počeli su da integrišu generativnu AI u svoje proizvode, izgrađujući kopilota sa kojim korisnici komuniciraju pri strateškom upravljanju portfoliom i upravljanju tokovima vrednosti. Kopilot kreira scenarije plana i tako pomaže menadžerima da postignu ciljeve lansiranja proizvoda i predlaže načine za pomeranje isporuka na mapama puta, deljenje posla među timovima i preraspodelu investicija.
Kao rani usvojilac, Planview je rano shvatio da ako zaista želi da se osloni na AI, mora da postavi politike i upravljanje da bi pokrio kako ono što radi kod sebe tako i ono što radi na poboljšanju svoje ponude proizvoda. Na osnovu iskustva kompanije i iskustva drugih CIO-a na drugim mestima mogu se izvući četiri lekcije kao pomoć organizacijama da razviju sopstveni pristup upravljanju veštačkom inteligencijom.
Oslonac na postojeći okvir
Upravljanje veštačkom inteligencijom se ne razlikuje mnogo od bilo kojeg drugog upravljanja. U stvari, prema CTO-u Planview-a Miku Kerstenu, pošto se većina politika veštačke inteligencije odnosi na podatke, trebalo bi da bude lako iskoristiti postojeće radne okvire. Planview je preuzeo smernice koje su već koristili za otvoreni kôd i oblak i prilagodio ih potrebama upravljanja veštačkom inteligencijom.
Veoma drugačija organizacija, Florida State University (FSU), razvila je upravljanje veštačkom inteligencijom iz postojećeg saveta za upravljanje IT, koji se redovno sastaje kako bi odredio prioritete investicijama i riziku. „Mi rangiramo investicije, kako finansijski, tako i u smislu vrednosti i uticaja širom kampusa“, kaže Džonatan Fozard, direktor informacionih tehnologija na univerzitetu. „Projekti veštačke inteligencije uključuju se u te diskusije i tako smo izgradili naše upravljanje veštačkom inteligencijom.”
Slučajevi upotrebe FSU-a se kreću od naučnih istraživanja do kancelarijske produktivnosti – i oni predaju AI kao deo nastavnog plana i programa od inženjerstva i prava do svih drugih smerova gde će studenti verovatno koristiti veštačku inteligenciju kada počnu da rade. Fozard kaže da je balansiranje troškova i rizika sa potencijalnom dodatnom vrednošću sličan pristupu kolebanja. Tokom prve runde diskusija, određeni projekti se penju na vrh. Zatim savet počinje da razmatra te projekte visokog prioriteta kako bi se uverio da li mogu da zaštite sve što univerzitet treba da štiti, uključujući intelektualnu svojinu, istraživačke težnje, privatnost korisnika i osetljive podatke.
„Bilo da ste u visokom obrazovanju ili u korporativnom okruženju, najpre se fokusirajte na proizvodnju“, kaže Fozard. „Ostavite bombastičnost i razmislite o tome šta pokušavate da postignete. Saznajte kako možete da koristite tehnologiju da biste omogućili inovacije na svim nivoima organizacije. Zatim se pobrinite da zaštitite svoje podatke i svoje ljude.“
Razjasnite šta se radi u kući i tamo gde ste partner
„Moramo da napravimo veoma jasnu politiku o odnosu između onoga što gradimo i onoga što kupujemo“, kaže Kersten. „Imam prilično velike timove za veštačku inteligenciju i nauku o podacima, a naša organizacija za uspeh klijenata je želela da ti timovi izgrade mogućnosti korisničke podrške. Ali ti stručnjaci su nam potrebni za razvoj proizvoda. Da bismo ih zadržali na osnovnom poslu, naša politika jasno razgraničava šta gradimo, a šta kupujemo.”
Kersten smatra da je takođe važno napraviti jasnu politiku o tome kako se koristi otvoreni kôd. Planview je odlučio da integriše modele otvorenog koda jedino za istraživanje i slučajeve interne upotrebe. Što se tiče onoga što prodaju, kompanija se oslanja na LLM-ove koji imaju jasne uslove korišćenja. „Deo naše politike je da obezbedimo da uslovi korišćenja velikog dobavljača jezičkih modela zadovolje naše potrebe privatnosti i usklađenosti“, kaže on.
U potpuno drugačijoj industriji, Wall Street English, međunarodna akademija engleskog jezika sa sedištem u Hong Kongu, razvila je sopstvenu AI grupu kako bi ovladala tehnologijom koju smatraju osnovom svog poslovanja. „Težimo bržim inovacijama, boljim rezultatima i nizu prilagođenih rešenja koja savršeno odgovaraju potrebama učenika i nastavnika“, kaže Roberto Hortal, direktor za proizvode i tehnologiju kompanije. „Održavamo proaktivan pristup. Deo naše politike je da budemo u toku sa najnovijim dešavanjima, najboljim praksama i potencijalnim rizicima.”
Kao obrazovna organizacija, Wall Street English integriše AI u svoje programe za samostalno učenje. Oni ga koriste za prepoznavanje govora kako bi pružili povratne informacije o izgovoru, kao i osnovu za agente za razgovor koji omogućavaju učenicima da vežbaju konverzacijske veštine oponašajući scenarije iz stvarnog života. Kompanija je uspostavila okvir upravljanja koji uključuje ne samo tehnologiju, finansije i pravna razmatranja, već i etiku u multikulturalnom okruženju.
Zaštitite prave stvari u lancu vrednosti
Pošto koristi alate za generisanje koda, Planview-ovo AI upravljanje uključuje pravila i smernice koje obezbeđuju da ne krše autorska prava. Takođe štiti sopstveni softver tako da ga nijedan od alata za generisanje koda ne preuzima i ponovo koristi na drugom mestu. Kersten kaže da upravljanje veštačkom inteligencijom kompanije ne samo da naglašava ove tačke, već i upućuje korisnike kako da konfigurišu alate.
„GitHub Copilot ima postavku koja pazi da vam ne daje kôd koji je zaštićen autorskim pravima“, kaže Kersten. „Onda drugo podešavanje uzrokuje proveru da li vaš konačni kôd nije previše sličan nečemu u njegovim spremištima. Postoji i postavka koja kaže GitHub Copilotu da ne čuva vaš kôd.“
Naravno, šta treba zaštititi zavisi od delatnosti. Dok se Planview bavi zaštitom IP-a, Wall Street English vodi računa o kulturološkim osetljivostima. Oni prilagođavaju sadržaj svog kursa kako bi izbegli da uvrede učenika, a njihovi alati za veštačku inteligenciju moraju da rade isto. „Kao što povezujemo naše onlajn časove sa obučenim nastavnicima kako bismo garantovali da se ne kaže ništa neprikladno, moramo osigurati da AI izbegne izražavanje neželjenih mišljenja ili neprikladnog sadržaja“, kaže Hortal. „Koristimo tehnike, kao što su sanacija unosa, kontekstualno praćenje i filtriranje sadržaja, da bismo ublažili rizike i ranjivosti. Sve ove stvari su deo našeg upravljanja veštačkom inteligencijom.“
Šta god da štitite, pravila ne bi trebalo da se zaustave u vašoj organizaciji. Treba uložiti napore kako bi se osiguralo da se ista zaštita garantuje kada se posao poverava spoljnim izvođačima. „Neke od najsofisticiranijih kompanija na svetu interno imaju neverovatnu strukturu upravljanja veštačkom inteligencijom“, kaže Matt Kunkel, izvršni direktor LogicGate-a, softverske kompanije koja obezbeđuje holističku platformu za upravljanje, rizik i usklađenost (GRC). „Ali onda oni šalju sve svoje podatke drugim učesnicima koji koriste te podatke sa svojim velikim jezičkim modelima. Ako se vaši drugi učesnici ne slažu sa vašim politikama korišćenja AI, onda u tom trenutku gubite kontrolu nad upravljanjem AI.“
Počnite odmah
Najčešći savet koji dolazi od IT lidera koji su već primenili upravljanje veštačkom inteligencijom jeste da počnete odmah. Od trenutka kada IT rukovodstvo počne da radi na upravljanju veštačkom inteligencijom do trenutka kada prenesu ta pravila širom svoje organizacije, mogli bi da prođu meseci. Kao primer, Planview-u je trebalo oko šest meseci od kada su počeli da razmišljaju o svojoj politici do trenutka kada su je učinili dostupnom celoj kompaniji u svom sistemu upravljanja učenjem.
Kao jedan od prvih koji je usvojio AI, Kersten često javno govori o iskustvu Planview-a. „Organizacije koje čekaju su one koje će zaostati“, kaže on. „Uspostavite svoje politike odmah. Nije tako teško kao što mislite. A kada budu uspostavljene, one će zaista pomoći ne samo u tome kako gradite stvari interno, već i u tome šta nudite tržištu spolja.“
Kunkel se slaže. „Sumnjivi slučajevi upotrebe se već javljaju, tako da je važno da se CIO-ovi što pre pozabave politikom veštačke inteligencije“, kaže on. „Dobro mesto za početak je izgradnja konsenzusa o tome koliko je organizacija izložena riziku u vezi sa veštačkom inteligencijom. Ljudi moraju da povedu iskren razgovor o ravnoteži koju žele da postignu između brzog kretanja i zaštite podataka o klijentima.”
Kad jednom razvijete svoje upravljanje i saopštite ga celoj organizaciji, ljudi će moći da se usredsrede na dodatne vrednosti.
Izvor: CIO