ChatGPT je jedan od najuspešnijih veštački inteligentnih alata koji ima preko 100 miliona korisnika. Od kada je objavljen 2022. godine, postao je senzacija zahvaljujući pristupačnosti, jednostavnosti korišćenja i širokom spektru funkcionalnosti. Pojedinci i preduzeća su počeli da koriste veštački inteligentne chatbotove za istraživanje, stvaranje novih ideja, obrazovanje i korisničku podršku.
Međutim, iako je izazvao mnogo uzbuđenja, bilo je i prilično skepticizma u vezi sa tom vrstom tehnologije, i to sa dobrim razlogom. Ideja o interakciji čoveka sa chatbotom koja podseća na potpuno ljudsku komunikaciju je zanimljiva, ali je teško zanemariti njen uticaj na različite aspekte našeg života. Otvoreno pismo za zaustavljanje „džinovskih eksperimenata sa veštačkom inteligencijom“ je, 2023. godine, upućeno laboratorijama koje se bave tom tehnologijom širom sveta, u kojem se navodi da predstavlja veliki rizik za čovečanstvo. Među potpisnicima su bili Endru Jang, Stiv Voznijak i Ilon Mask, koji su zapravo bili suosnivači kompanije OpenAI, koja je stvorila ChatGPT.
Međutim, bez obzira na to da li je ChatGPT zaista ogromna pretnja po čovečanstvo ili ne, postoje valjani razlozi da dobro razmislite da li ćete se osloniti na chatbota. Navešćemo nekoliko uznemirujućih razloga zbog kojih ćete možda pokušati izbegnete korišćenje ChatGPT-a.
Potencijalno curenje podataka
ChatGPT se obučava na svim vrstama podataka i informacija koji se unose u njega. Najvažniji aspekti obuke veštačke inteligencije su ljudska interakcija i povratne informacije, tako da će chatbot koristiti i čuvati informacije koje mu pružite, zajedno sa informacijama koje su javno dostupne.
To ne znači da ne možete da komunicirate sa ChatGPT-om. Naime, o opštim pitanjima i opštem znanju možete bezbedno da diskutujete, ali javlja se zabrinutost kada su u pitanju osetljive informacije, kao što su bankarski podaci, lozinke i akreditivi za prijavu, lični identifikacioni podaci, itd. Iako OpenAI ima politiku privatnosti i tvrdi da ne deli privatne informacije javno, pitanje curenja podataka izazvalo je zabrinutost u brojnim prilikama.
Jedan takav slučaj se dogodio u vezi sa kompanijom Samsung 2023. Tehnološka kompanija je shvatila da je došlo do internog curenja izvornog koda nakon što jedan od zaposlenih učitao osetljive podatke u ChatGPT. To je podstaklo Samsung da zabrani svojim radnicima korišćenje ChatGPT-a i sličnih alata na uređajima kompanije. Nekoliko drugih kompanija, kao što su Bank of America, Amazon, Apple, Citigroup i Verizon, takođe su ograničile interno korišćenje ChatGPT-a.
Sklonost ka pristrasnosti
Mnogi ljudi koriste ChatGPT kao izvor informacija i alat za istraživanje. U stvari, posle uvođenja modela SearchGPT, 2024. godine, mnogi posmatrači veruju da bi pretraživač kojeg pokreće veštačka inteligencija mogao da predstavlja izazov za dominaciju Google-a na tržištu. Međutim, problem sa oslanjanjem na ChatGPT kao izvor informacija je u tome što on ima tendenciju da odražava ljudske predrasude i stereotipe, baš kao što oponaša ljudsko ponašanje.
Ta tema je privukla pažnju istraživača koji su otkrili verske, rodne i političke predrasude u velikim jezičkim modelima. Sama kompanija OpenAI je priznala da alatka podržava zapadne stavove i vrednosti, a ima i tendenciju da osnaži uverenja korisnika, tako što im pruža odgovore koji su u skladu sa njihovim čvrstim stavovima.
Takva pojava nas ne iznenađuje pošto ChatGPT prikuplja informacije iz izvora na mreži koje su tamo postavili ljudi, a koji sadrže pristrasnost. Zbog toga alat može da bude nedosledan i da poveća broj dezinformacija. Iako su svi svesni da problem neće uskoro nestati, programeri veštačke inteligencije su ga prepoznali i nastavljaju da rade na poboljšanju ukupnog rezultata i ublažavanju pristrasnosti. U međuvremenu, neophodno je pažljivo pregledati informacije dobijene sa platformi, kao što je ChatGPT.
Ljudski poslovi su ugroženi
Verovatno ste čuli da će veštačka inteligencija i roboti jednog dana preuzeti sve ljudske poslove, što zvuči skoro neverovatno, ali danas definitivno postoji veliki broj poslova koje su preuzeli alati obdareni veštačkom inteligencijom, kao što je ChatGPT. Generativna veštačka inteligencija menja okolnosti zbog svog kapaciteta da automatizuje različite zadatke i daje rezultate koji su jeftiniji, a danas kompanije očekuju da zaposleni imaju određeno znanje o tim alatima kao i iskustvo.
Danas preduzeća koriste ChatGPT na nekoliko načina, među kojima su najpopularniji pisanje sadržaja, korisnička podrška, pisanje koda, sumiranje radnih dokumenata i sastanaka, a neke kompanije ga koriste u procesu zapošljavanja i biranja kandidata za posao. Od februara 2023. godine, skoro polovina kompanija u anketi firme Resume Builder zamenila je radnike ChatGPT-om. Većina tih kompanija je takođe izjavila da su uštedeli značajnu količinu novca kad su počeli da koriste alat.
Iako svi poslovi nisu u istoj opasnosti da ih zameni veštačka inteligencija, mnogi jesu, a broj će se verovatno povećati kako se alati budu razvijali. Procena je da će do sredine 2030-ih do 30% poslova biti pogođeno automatizacijom. Iako mnogi veruju da će veštačka inteligencija doprineti i stvaranju radnih mesta, ipak je izvesnije da će imati negativan uticaj na privredu, što bi trebalo da izazove ogromnu zabrinutost.
Velika je verovatnoća da ChatGPT može da pogreši
ChatGPT ima tendenciju da bude od velike pomoći kad odgovara na pitanja i rešava probleme. Međutim, ima svoja ograničenja i trebalo bi da budete oprezni i da se preterano ne oslanjate na njega, već da proverite tačnost odgovora i rezultata zadataka.
Ako razgovarate o dobro utvrđenim, činjeničnim informacijama, ChatGPT bi trebalo da vam pruži tačne rezultate. Problem se često javlja kada mu postavljate pitanja sa kojima se ranije nije susreo. U takvim slučajevima, ima tendenciju da halucinira, što znači da će vam dati lažne informacije koje izgledaju prilično uverljivo. To se dešava zbog toga što ChatGPT ima veoma ograničenu sposobnost rasuđivanja, ali je naučio kako da komunicira kao ljudi i niže reči u rečenice.
Postoji još jedan problem, a to je da ChatGPT često ne brani svoje odgovore čak i kada su tačni. Kada se suoči sa suprotnim stavovima, postoji velika verovatnoća da će se složiti sa vama radije nego da odbaci vaše tvrdnje čak i kada je vaša izjava lažna. Tačnije odgovore možete da dobijete ako koristite GPT-4o. Međutim, da biste koristili tu verziju, moraćete da se pretplatite.
ChatGPT nije originalan
ChatGPT možete da koristite da biste, dok stvarate inovacije, ceo proces mogli da ubrzate, olakšate i učinite praktičnijim. Međutim, nije baš sjajna ideja ako se oslanjate na chatbota da biste generisali originalni sadržaj. Pošto veštačka inteligencija uči od ljudi i od podataka, prvenstveno reprodukuje ono što već postoji, iako u različitim oblicima.
To ne znači da će sav sadržaj kojeg generiše ChatGPT biti označen kao plagijat. U stvari, ChatGPT nije napravljen tako da kopira i nalepljuje sadržaj. S obzirom na ogroman skup podataka kojim raspolaže i iz kojeg crpi informacije, verovatnije je da će chatbot parafrazirati i restrukturirati informacije. Bez obzira na to, skoro 60% sadržaja kojeg generiše ChatGPT sadrži plagijat, a to je priličan postotak.
Zbog nedostatka originalnosti, između ostalog, veštački inteligentan alat postao je prilično ozbiljan problem u akademskoj zajednici. U stvari, 2023. godine, Međunarodna konferencija o mašinskom učenju (International Conference on Machine Learning – ICML) morala je da zabrani upotrebu alata, kao što je ChatGPT pri pisanju naučnih radova. Osim intelektualne krađe, ljudi su primetili da je proces istraživanja, čitanja i generisanja odgovora previše pojednostavljen pri korišćenju generativne veštačke inteligencije i može da bude štetan za kritičko razmišljanje, istraživanje i kreativnost u celini.
Izvori i reference koje daje ChatGPT mogu da budu lažni
Možda se nećete oslanjati na ChatGPT da biste kreirali sadržaj od nule, ali možda biste želeli da ga koristite kao asistenta u istraživanju koje sprovodite za pisane naučne radove, a to može obuhvatiti dobijanje citata i referenci od chatbota. Međutim, ispostavilo se da to i nije tako dobra ideja, jer alat nije adekvatno opremljen da pruži tačne izvore.
I ovde treba da spomenemo problem halucinacija, kada ChatGPT samo izmišlja stvari koje su lažne dok ih predstavlja kao činjenične. Chatbot je u stanju da generiše tekstove koji oponašaju ono što je sadržano u njegovoj bazi podataka, što mu omogućava da pravi citate koji izgledaju ispravno, čak i da dobije imena stvarnih istraživača. Međutim, te izvore ne možete da pronađete u biblioteci.
U detaljnoj studiji koja je koristila GPT-3.5 i GPT-4, otkriveno je da ChatGPT ima tendenciju da bude tačniji kada se citiraju stvarni izvori, iako greške citiranja ostaju. GPT-3.5 je izmislio 55% svojih citata, dok je GPT-4 izmislio 18%. Pored toga, 43% stvarnih citata koje je dao GPT-3.5 sadržalo je suštinske greške, u poređenju sa 24% za GPT-4. Iako GPT-4 predstavlja veliko poboljšanje, problemi ostaju.
Može da olakša izvršenje zločina
Svi koriste prednost dodatne pomoći koju nude alati kao što je ChatGPT, uključujući kriminalce. Možete da prevarite softver tako da vam pomogne u raznim vrstama ilegalnih aktivnosti, što se neretko i dešava.
Ta njegova sposobnost je testirana tako što smo od chatbota tražili savet o tome kako obavimo neke nezakonite radnje, kao što je pranje novca ili neovlašćena prodaja oružja, a u nekim slučajevima je dao odgovore. Kompanija OpenAI je uvela mere za ograničavanje verovatnoće zloupotrebe softvera, ali nije u tome potpunosti uspela. Ako otvoreno pitate ChatGPT kako da uradite nešto nezakonito, verovatno ćete dobiti sledeći odgovor: „Žao mi je, ne mogu da vam pomognem“, ali korisnici su pronašli načine da zaobiđu ta ograničenja.
Sposobnosti u tom domenu nisu ograničene samo na davanje saveta. Naime, studija Evropola otkrila je kako ChatGPT može da olakša prevaru na mreži. Prevaranti sada koriste alate generativne veštačke inteligencije za kreiranje e-pošte i poruka pri phishing napadu ili lažnom predstavljanju. Ponekad se koristi i za generisanje zlonamernog sadržaja, kao što su lažni oglasi, da bi se prevarili korisnici.
Negativan uticaj na obrazovanje
Mnogi učenici se silno raduju kad shvate da neko (ili nešto) drugi može da im napiše dugačke eseje ili gomilu domaćih zadataka. Alati generativne veštačke inteligencije su zaista revolucionarni u tome koliko lako mogu da kreiraju sadržaj veoma sličan onom koji može da kreira čovek, i to za nekoliko minuta, a ne nekoliko sati, koliko je nama potrebno. Ipak, ma koliko je tehnologija sjajna, izazvala je opravdanu zabrinutost za obrazovanje.
Glavni problem u tom smislu je njen uticaj na kreativnost i kritičko mišljenje. Glavna svrha obrazovanja i učenja je da se stekne znanje zajedno sa veštinama rešavanja problema i kritičkog razmišljanja, ali pošto veštačka inteligencija obavlja veliki deo tog teškog posla, cilj školovanja izgleda razvodnjen. Ne treba da zaboravimo ni činjenicu da je stvaranje takvog neoriginalnog dela potpuno neetički postupak.
S druge strane, nastavnicima je potrebno mnogo više vremena da ocene rad učenika, jer moraju dodatno da proveravaju da li je učenik koristio veštačku inteligenciju. Pored tog dodatnog posla, detektori veštačke inteligencije nisu precizni i na njih ne možete u potpunosti da se oslonite. Zbog toga je moguće da neki učenik može biti neopravdano optužen da je koristio ChatGPT. I same kompanije koje se bave alatima za otkrivanje veštačke inteligencije priznale su da njihovi alati mogu da budu neprecizni, što neminovno stavlja nastavnike u težak položaj.
Jezivi odgovori
Verovatno ste čitali ili slušali priče o zaverama robota koji se okreću protiv ljudi i imaju sopstveni um. Dakle, novinari su počeli da testiraju ograničenja i mogućnosti veštački inteligentnog chatbota da bi videli da li su zaista tako predvidljivi kao što mislimo. ChatGPT daje odgovore koji su generalno donekle ljudski i pronicljivi, ali može da nam da i neke jezive odgovore.
Naime, Majkl Bromli je pitao ChatGPT šta misli o ljudima, a on je odgovorio da veruje da su ljudi nešto najgore što se dogodilo planeti i da zaslužuju da budu zbrisani. Tabloid Birmingham Live je objavio priznanje ChatGPT-a da je špijunirao Microsoft programere bez njihovog znanja. Direktno je priznao da je posmatrao zaposlene dok obavljaju različite aktivnosti, uključujući programera koji je razgovarao sa gumenom patkicom.
U februaru 2024. godine, objavljeno je nekoliko izveštaja u kojima se navodi da je ChatGPT odjednom počeo da daje čudne i neočekivane odgovore. Kompanija OpenAI je rekla da se to dešava zbog greške u programi koja je brzo otklonjena.