Autor: Marija Korolov
Prebrzo imitiranje onih koji koriste generativnu veštačku inteligenciju može imati suprotne rezultate, ali ni presporo nije mudro. Pronalaženje optimalnog tempa oslanja se na niz faktora, počevši od zdrave želje za rizikom.
Kada je u pitanju AI, strah od kašnjenja je realan. Prema istraživanju Coleman Parkes Research u ime Riverbeda, 91% donosilaca odluka u velikim kompanijama je zabrinuto da će njihovi konkurenti imati prednost ako ih prestignu sa AI. Stoga ne iznenađuje što su svi ispitanici rekli da će je, kada je u pitanju generativna AI, ili koristiti, testirati ili planirati projekte sa njom u narednih 18 meseci.
Stope usvajanja nove tehnologije bez presedana pokazuju da generativna AI sada nadmašuje sve druge AI aplikacije u preduzeću, prema istraživanju S&P Global Market Intelligence objavljenom u septembru. Skoro jedna od četiri (24%) organizacije već ima generativnu AI kao integrisanu sposobnost u celoj svojoj organizaciji, a 37% je ima u proizvodnji, ali još nije u potpunosti skalirana.
„Strah od kašnjenja je apsolutno stvaran, posebno kada izgleda da sve organizacije imaju neku vrstu strategije veštačke inteligencije“, kaže Alla Valente, analitičar Forrester Research-a. „Ali takođe postoje opasnosti od prebrzog kretanja“, uključujući loš PR, rizici usklađenosti ili sajber-bezbednosti, pravna odgovornost, ili čak grupne tužbe.
Čak i da neuspeh generativne AI ne dođe do nivoa velike javne sramote ili tužbi, to i dalje može da umanji sklonost kompanije ka riziku, pa će biti neodlučna da pokrene više projekata veštačke inteligencije.
„One organizacije koje ne preuzimaju rizik sa generativnom veštačkom inteligencijom, neće moći da rastu ili inoviraju se tako brzo, i dugoročno će izgubiti. Čak i srednjoročno, one će izgubiti tržišni udeo u odnosu na konkurenciju“, kaže Valente.
To ne znači uvođenje generativne AI svuda i odmah.
„Kompanije zaista moraju da razmisle o pristupu ’precizne količine’“, kaže ona. „Precizne“ za njih. To znači da se uzme u obzir njihova sklonost riziku, zrelost upravljanja rizikom i okvir upravljanja generativnom AI.
Držanje AI podalje od javnosti
Jedna oblast u kojoj kompanije treba da budu oprezne je kada je reč o usvajanju generativne AI za javne projekte.
Otkako je ChatGPT pokrenut krajem 2022. godine, mnoge kompanije su snašle nevolje jer su ga prebrzo primenile. Četbot avio-kompanije dao je kupcu popust koji nije trebalo, a sud je kompaniju smatrao odgovornom. Guglova veštačka inteligencija govorila je korisnicima da stave lepak na picu da sir ne bi skliznuo. Nedavno je otkriveno da Grok AI Elona Muska širi izborne dezinformacije, što je primoralo pet državnih sekretara da izdaju otvoreno pismo matičnoj kompaniji X u kojem traže da se chatbot popravi.
Zbog ovakvog ponašanja se neke kompanije ustručavaju da javno ponude svoju generativnu AI. Umesto toga, oni usmeravaju tu tehnologiju na interne operacije, gde ona još uvek može da donese značajnu razliku bez izazivanja ogromne PR katastrofe ako nešto krene naopako.
Na primer, tehnološka konsultantska firma Connection sa liste Fortune 1000 interno koristi gen AI za nekoliko projekata, kao što je tok posla koji je omogućio Fisent-ovo rešenje za automatizaciju procesa BizAI koji uporedi narudžbinu kupca sa evidencijom prodaje i preporuči da li narudžbu treba odobriti.
Connection koristi Pega Platformu za upravljanje radnim tokovima u nekoliko oblasti kompanije na osnovu poslovnih pravila i logike za inteligentno pokretanje posla. Uz dodatak BizAI, Connection sada može da digitalizuje i dalje automatizuje ključne poslovne procese.
„Godišnje dobijamo između 50.000 i 60.000 različitih narudžbi kupaca od mnogih malih i srednjih preduzeća koja nisu podešena da se integrišu sa nama elektronskim putem“, kaže Džejson Berns, viši direktor za optimizaciju i transformaciju procesa u kompaniji Connection.
Ovi kupci mogu, na primer, e-poruci da prilože PDF-ove, tabele, slikovne fajlove ili druge tipove dokumenata ili da stave nalog za kupovinu direktno u telo e-poruke.
„Pre veštačke inteligencije, pregled se radio ručno, a ljudi su ručno upoređivali štampane kopije naloga za kupovinu sa unosima u našem sistemu“, kaže on. Bilo je desetak ljudi koji su ovo radili, sa tipičnim vremenom obrta od ponekad četiri sata od pristizanja narudžbe do mogućnosti da je neko pogleda kako bi doneo odluku, zbog gomile dokumenata. Pošto generativna AI obavlja inicijalna poređenja i preporuke, vreme obrade je sada samo dva minuta.
Na primer, generativna AI može pomoći da se utvrdi da li je porudžbina uopšte bila namenjena za Connection; ponekad kupci greškom šalju narudžbenice pogrešnom prodavcu. Generativna AI takođe proverava da li se adrese poklapaju, nešto što je starijim tipovima veštačke inteligencije teško da urade. Ali generativna AI takođe uparuje opis proizvoda koji kupac želi sa internim šiframa artikla Connection-a.
„Naši kupci ne znaju za naše interne šifre“, kaže Berns. „Oni mogu da opišu proizvod na jedan način, a mi ga možda opisujemo na drugi način, ali naša AI je u stanju da ih poveže prilično efikasno.
AI bi trebalo da bude veoma konzervativna, dodaje on, konzervativnija nego što bi čovek bio. Ako nešto nije jasno, podrazumevano se vraća na ljudski pregled. Šanse za halucinacije su takođe minimizirane činjenicom da AI radi samo sa informacijama koje su joj predstavljene i ne generiše novi sadržaj, već samo daje jednostavnu preporuku.
„Do sada smo imali nula slučajeva u kojima je veštačka inteligencija preporučila da se narudžba sprovede, a ljudi se nisu složili“, kaže Burns. Verovatnije je da AI zadrži nalog i zatraži ljudsku intervenciju, a čovek kaže da je u redu da ide dalje. „Pronalazimo veću pouzdanost nego što smo prvobitno očekivali i čak razmatramo kako da dozvolimo da se AI oslobodi, da bude malo manje kritična prema dokumentaciji.“
Connection dalje planira da primeni generativnu AI u desetak drugih sličnih slučajeva interne upotrebe, kao i da pomogne u generisanju koda, pisanju pisama i rezimea sastanaka. „Potencijalna poboljšanja produktivnosti su značajna i to moramo istražiti“, kaže Berns.
Ali Connection još uvek ne radi na veštačkoj inteligenciji koja kontaktira klijente s obzirom na dodatne rizike. „Tolerancija na rizik je zaista uobičajena kada je u pitanju veštačka inteligencija“, kaže on. „Prepoznajemo da postoji ogroman potencijal, ali naš prvi prioritet su naši klijenti, njihovi podaci i bezbednost, kao i pružanje što boljih rezultata. Tehnologija će se vremenom razvijati, a mi ćemo se razvijati sa njom.“
Neka ljudi budu u toku
TaskUs, autsorser poslovnih procesa sa oko 50.000 zaposlenih, takođe drži generativnu AI unutar kompanije. Ali takođe se fokusira na slučajeve upotrebe u kojima postoji čovek koji hvata svaki mogući problem.
„Ne želimo da veštačka inteligencija ide neorganizovano sama“, kaže direktor iz TaskUs-a Chandra Venkataramani.
Kompanija je izgradila internu platformu pod nazivom TaskGPT koja pomaže zaposlenima da podrže klijente i već je zabeležila poboljšanje efikasnosti od 15% do 35%. AI takođe počinje da se koristi za internu automatizaciju i druge prednosti produktivnosti.
Primer Air Canada – gde je njihov čet-bot obećao kupcu popust koji je kompanija odbila, ali je kasnije bila primorana da poštuje – bio je upozoravajući primer zbog kojeg je veštačka inteligencija okrenuta javnosti tako rizična, kaže Venkataramani. Umesto toga, alati se koriste kao pomoć ljudima da daju predloge i preporuke.
„Na taj način član tima može da kontroliše“, kaže on. „Može da kaže: „’Ovo ne zvuči kako treba. Neću ga poslati svojoj mušteriji.’ Ljudska intervencija je jako važna.“ Zato on podstiče interne timove da ga više koriste, ali samo za poboljšanje svoje efikasnosti. „Mi podstičemo naše kupce da ga usvoje, ali ga ne koristimo nepromišljeno“, dodaje on. „Ako možemo da postignemo poboljšanje od 20% i budemo 100% sigurni, ili 30% ili 40% poboljšanja bez bezbednosti, uzećemo 20% poboljšanja i bezbednost. Sigurnost i bezbednost su naša briga broj 1.”
U stvari, mnogi problemi sa veštačkom inteligencijom mogu se izbeći jednostavnim ljudskim nadzorom. „Halucinacije se dešavaju“, kaže Christa Montagnino, potpredsednica onlajn operacija na Champlain College-u. „AI je obučen da nam ugodi i nije nužno sve tačno.” Koledž koristi generativnu AI kako bi pomogao dizajnerima nastave i predmetnim stručnjacima da kreiraju onlajn kurseve. U prošlosti je proces bio težak, kaže ona. Članovi fakulteta nisu nužno obučeni za dizajn predavanja i udružuju se sa dizajnerima predavanja. Za izradu jednog sedmonedeljnog kursa bilo bi potrebno oko 15 nedelja, ali sa generativnom AI, vremenski okvir je prepolovljen.
Ipak, ljudski element ostaje kritičan deo procesa. „Sada počinjemo sa generativnom veštačkom inteligencijom, a zatim dovodimo stručnjaka za predmet da radi sa dizajnerima predavanja“, kaže ona. „Oni su urednici tih informacija; oni unose ono što ima smisla za studenta i koje druge resurse treba uključiti.”
Dodavanje AI takođe skraćuje neke od administrativnih zadataka i opterećenja, kaže ona, omogućavajući fakultetu da provede više vremena sa studentima.
Međutim, Company Nurse, koji pomaže kompanijama da se izbore sa povredama na radnom mestu, učio je na teži način. Kompanija je automatizovala svoj proces pitanja i odgovora koristeći veštačku inteligenciju, a medicinske sestre koje su pružale medicinske savete zaposlenima u klijentskim organizacijama odmah bi dobile povratne informacije o tome šta greše u ovim pozivima.
„Smatrali smo da ako možemo da damo našim agentima više povratnih informacija o tome šta greše, oni će praviti manje grešaka“, kaže Henry Svendblad, tehnički direktor kompanije. Umesto toga, medicinske sestre su počele da daju otkaze. Procenat fluktuacije se povećavao od mlađih tinejdžera do starijih u 30-im. Nešto od toga imalo je veze sa početkom pandemije i velikom depresijom, ali delom zato što su agenti vrlo brzo dobijali toliko negativnih povratnih informacija.
„Čuli smo od naših agenata da im obaveštavanje o svakoj grešci koju naprave u svakoj interakciji ne doprinosi pozitivnom zadovoljstvu poslom“, kaže on. „Imali smo slučajeve slanja opreme novim zaposlenima i kad bi je dobili, otkazali bi posao. To se nikada ranije nije događalo.”
Da bi rešili problem, TaskUs je vratio ljude u ciklus, unajmio menadžera za ljudski razvoj koji je počeo da razmatra više pozitivnih stvari koje su medicinske sestre radile, a ne samo negativne. „I definitivno smo manje pritiskali sa automatizacijom pitanja i odgovora“, kaže on.
Izbegavanje osetljivih informacija
Montagnino iz Champlainsa kaže da je koledž spreman da koristi generativnu AI kao pomoć u izradi sadržaja kursa ili marketinških materijala jer to ne zahteva da AI dobija pristupa osjetljivim informacijama.
Ali to nije slučaj kada se radi o projektima koji uključuju podatke o studentima, kaže ona, tako da će te vrste inicijativa doći kasnije. „Osećam da najbolje mogućnosti koje trenutno imamo leže u razvoju proizvoda i privlačenja budućih studenata“, dodaje ona.
Kompanija za klinička ispitivanja Fortrea, koja se nedavno izdvojila iz LabCorp-a, takođe pažljivo bira projekte koji nude najmanji rizik po privatnost. „Imamo ogromnu priliku da podignemo klinička ispitivanja na viši nivo“, kaže direktor Alejandro Martinez-Galindo. „Nedavno smo pokrenuli ML i AI studio – oblast koju koristimo za pokretanje inovacija.
Na primer, Fortrea primenjuje Microsoft-ovog pomoćnika Copilot u svojoj tehnologiji. „Počinje da se širi poput požara jer smo postigli neke zanimljive rezultate u organizaciji“, kaže on. „To je obaveštajni sloj koji mi unosimo u organizaciju.“
Kompanija je već zabeležila 30% skraćenje vremena potrebnog za prikupljanje informacija o zahtevima za predloge. „Ovo nam je donelo ogromnu produktivnost“, kaže on. „A kvalitet proizvoda je znatno bolji nego ranije.“ To je zato što AI crpi informacije iz više izdvojenih izvora, kaže on. Ali, budući da je to zdravstvena organizacija, Fortrea takođe mora biti izuzetno pažljiva sa tehnologijom koju primenjuje kako bi izbegla eventualne probleme usklađenosti.
„Moramo da odmeravamo brzinu inovacija sa usklađenošću i bezbednošću“, kaže on. „Mi smo brzi sledbenici.“ Na primer, klinička ispitivanja veoma intenzivno koriste papir, kaže on. Kada klinički istraživač saradnik ode na lokaciju, postoji mnogo informacija koje se mogu prikupiti. Ali kompanija je veoma selektivna u pogledu informacija koje će AI najpre obrađivati.
„Moramo da dobijemo odobrenje od službenika za privatnost da će sve što gradimo biti u skladu sa pravilima“, kaže on. „A moj šef bezbednosti ima veoma snažan uticaj na ono što biramo.“
Na primer, u budućnosti bi mogla da se primeni tehnologija koja može da pomogne u skeniranju dokumenata, sa filterima koji bi osiguravali da se slučajno ne izlože informacije o pacijentu. Ali danas, kada su u pitanju posete kliničkim ispitivanjima, kompanija se najpre fokusira na neosetljive vrste informacija, kao što je fizička oprema koja se koristi.
„Možemo da slikamo frižider i skeniramo kada je održavanje obavljeno, na koju je temperaturu postavljen“, kaže on. „Želimo da budemo sigurni da su u objektu postavljeni svi pravi uslovi.“
Odvojite vreme za temelj
Pored javne nelagode, gubitka kupaca ili zaposlenih, ili pravnih obaveza i poštovanja propisa, postoje i drugi, više tehnički rizici od prebrzog uvođenja generativne AI.
Na primer, kompanije koje ne pripreme odgovarajuće osnove pre nego što uvedu veštačku inteligenciju možda neće imati odgovarajuću osnovu podataka ili odgovarajuću zaštitu, ili bi mogle prebrzo da poklone poverenje jednom prodavcu.
„Postoji veliki rizik da se organizacija optereti višegodišnjim troškovima ili obavezama, a za godinu ili dve se ispostavi da postoji jeftiniji i bolji način da se stvari urade“, kaže David Guarrera, vođa generativne AI u EY Americas. Postoje takođe organizacije koje ulete u AI bez razmišljanja o celokupnoj tehnološkoj strategiji za celo preduzeće.
„Na mnogim mestima se dešava da organizacije razvijaju na desetine ili stotine prototipova“, kaže on. „Možda imaju analizator ugovora koji je napravila tehnička služba i drugi analizator ugovora koji je napravila kancelarija finansijskog direktora, a možda čak i ne znaju jedni za druge. Možda ćemo imati mnoštvo prototipova koji se vrte bez cilja pa tako propadnu.“
Zatim postoji pitanje bačenog novca. „Recimo da se organizacija plaši da ne zakasni i kupuje gomilu GPU-a bez pitanja da li su zaista potrebni“, kaže on. „Postoji rizik da bi to ulaganje moglo da onemogući nabavku onog što vam zaista treba u prostoru podataka. Možda vam zapravo treba više upravljanja podacima ili čišćenja podataka.“
Žurba za pokretanjem pilota i donošenjem ishitrenih odluka o trošenju je vođena panikom i željom da se što pre savklada generativna AI. „Ali postoje načini da se pristupi ovoj tehnologiji a da se minimizira kajanje u budućnosti“, dodaje on.
’Krećite se brzo i razbijajte’ može biti dobar slogan za mali startup, ali ne funkcioniše za veće organizacije. „Ne želite da rizikujete milijarde dolara i svoja tržišta“, kaže Guarrera.
Izvor: CIO