Veštačka inteligencija koja falsifikuje stvarnost u ime privatnosti

U eri pažljivog preuređivanja video-zapisa (engl. deep fakes) da bismo se dobro zabavili или da bismo nekoga obmanuli, sada smo počeli da ih koristimo da bismo očuvali privatnost. Kao i svi drugi lažni video-zapisi, i ovi postavljaju ozbiljna moralna i etička pitanja. Tehnologija deepfake, o kojoj govorimo potiče, iz berlinskog startapa pod nazivom Brighter AI , koji nudi rešenja za očuvanje privatnosti u svetu kome se sve više širi politika nadzora: zamućuju se registarske tablice i zamućuju se lica tako da kompanije koje su vlasnici kamera mogu da se pridržavaju evropskih zakona o privatnosti, posebno Opšte uredbe o zaštiti podataka o ličnosti. Sada kompanija lansira novi proizvod, ProtectPhoto, koji na potpuno drugačiji način uspeva da licima na slikama obezbedi anonimnost. „Izdvajamo originalna lica i zamenjujemo ih novim licima koja ne mogu da se povežu sa originalnim“, rekao je direktor kompanije Brighter AI Marjan Gleser. „Na primer, izdvojimo jedno lice i izmenimo ga tako da dobijemo sasvim novo lice, ali zadržimo istu starost, pol i nacionalnost, koje uopšte ne lični na originalno. U suštini, to lice je potpuno veštačko i ne bi ga bilo moguće prepoznati ni pratiti.“

Gleserov cilj je vredan divljenja.

Danas u svetu postoji više od 770 miliona nadzornih kamera, a očekuje se da će taj broj dostići milijardu u 2021. godini. Polovina tih kamera nalazi se u Kini, državi sa istorijom brutalne represije protiv neistomišljenika i manjina, ali mnoge su u Velikoj Britaniji, Sjedinjenim Državama i među drugim nacijama širom planete.

Da li smo zaista slobodni ako nas neprestano nadgledaju?

Takvu situaciju pokušava da popravi Brighter AI .

Naravno, ne nadgledaju nas samo kompanije i vlade. Jedan od zajedničkih elemenata protesta Black Lives Matter i nedavne reakcije policije Sjedinjenih Država je kamera pametnog telefona. Izgleda da svakoj prepirci prisustvuje nekoliko desetina posmatrača koji snimaju mobilnim telefonima.

Deljenje. Prenos uživo. Emitovanje.

Gleser je zabrinut zbog dugoročnih posledica koje ima proces deljenja lica ljudi bez njihove dozvole. Zbog toga je i odlučio da menja lica, odnosno, da menja stvarnost или bar naš zapis o tome. „Dakle, lica se razlikuju od originala. Ako je osoba bila na demonstracijama, slika koja je tada napravljena neće pomoći nikome, nijednom organu reda, niti će moći da bude zloupotrebljena ako ne živite u demokratskoj zemlji или negde drugde, niti će ta slika moći da se koristi protiv vas na bilo koji način“, kaže on. Ipak, potpuno je svestan pristrasnosti koju veštačka inteligencija može da nauči od ljudi i zbog toga pokušava da očuva polna i rasna obeležja originalnog lica. Brighter AI to radi pomoću generativne duboke neuronske mreže i generiše potpuno nova lica koja odgovaraju ciljnoj starosti, polu, etničkoj pripadnosti i još mnogo čemu drugom. Tako bi mladi Azijat или starija crnkinja zadržali očiglednu starost i rasu. I, kaže Gleser, ako se ne može odrediti pol или etnička pripadnost, osobi se ne može promeniti izgled.

Nejasno je, međutim, kako bismo, u stvari, mogli da saznamo da li je neuronska mreža Brighter AI u potpunosti verna stvarnosti или sadrži neviđene i nepoznate pristrasnosti koje potiču od njenih tvoraca или su zasnovane na hirovima njene tehnologije.

Zašto jednostavno ne bismo zamutili lice?

Proces tradicionalne zaštite privatnosti na fotografijama prilično je jednostavan i sastoji se od neznatnog zamućivanja lica или menjanja nekoliko piksela.

Gleser kaže da to ne funkcioniše. 

„Ako posmatramo proces istraživanja, ali i razvoja, možemo da vidimo da je to igra mačke i miša“, rekao je. „Dakle, kad promenimo nekoliko piksela, prevarićemo jedan detektor, jedan algoritam, ali doći će novi algoritam i šta ćemo onda. Dakle, naš pristup je drugačiji, mi menjamo celo lice.“  Brighter AI označava slike vodenim žigom da bi se pokazalo da ljudi na slici imaju „sintetička lica“. Ljudi, međutim, mogu da onemoguće taj vodeni žig.
Sve to, naravno, otvara razna pitanja: Ko je zapravo na fotografiji? Da li je fotografija koja je na ovaj način obrađena na bilo koji način stvarna? Da li je istorijski važna? Ko može – или želi – da napravi stvarne fotografije stvarnih događaja sa stvarnim ljudima za stvarne istorijske zapise? I, ako smo ovo prihvatili, da li svi mi samo pravimo nasumične slike koje su u osnovi lažne?

Postavlja se pitanje da li je nečije pravo na privatnost iznad prava drugih ljudi da precizno pamte i beleže događaje uz određenu dozu istine. Odgovora nema. Međutim, kao globalno društvo, moraćemo da postavimo ta pitanja i dođemo do neke vrste odgovora, jer ako mislimo da je sada situacija moralno neizvesna, uz milijardu nadzornih kamera i milijarde pametnih telefona, imaćemo još većih problema kad pametne naočare postanu novi telefoni, a više milijardi nas počne da hoda unaokolo sa kamerama na licu koje su uvek uključene i koje proširuju našu stvarnost.

Tehnologija ProtectPhoto kompanije Brighter AI trenutno je dostupna putem veb-aplikacije. Kompanija takođe radi na aplikaciji za kameru, tako da privatnost svake slike koju napravite može automatski da bude zaštićena. (I, naravno, izmenjena.) U budućnosti bi kompanija mogla da odluči da radi sa kompanijom „Epl“ или „Gugl“ da bi ugradila svoju tehnologiju u podrazumevane aplikacije za fotografisanje u operativnim sistemima Android i iOS .
To je vrli novi svet. Biće nam potrebni vrli ljudi da nam pokažu put u budućnost.

5996-vestacka-inteligencija-koja-falsifikuje-stvarnost-u-ime-privatnosti