Znaci da je slika ili video-snimak delo generativne veštačke inteligencije postaju sve manje primetni kako se tehnologija poboljšava. Iako VI napreduje vrtoglavom brzinom, stručnjaci se bore da dođu do novih metoda za suzbijanje ovakvih vrsta dezinformacija.
Sa više od 4.000 deljenja, 20.000 komentara i 100.000 reakcija na Fejsbuku, fotografija starije žene, koja sedi iza domaće torte za 122. rođendan, obišla je svet. „Počela sam da ukrašavam torte od svoje pete godine“, navodi se u pratećem natpisu.
Slika je nesumnjivo lažna. Da je nisu odale sveća koja kao da lebdi u vazduhu ili čudne amorfne mrlje na torti u prvom planu, onda bi svakako bilo sumnjivo što za slavljenicu nismo čuli kao najstariju osobu na svetu i to čak pet godina stariju od aktuelnog nosioca titule tog rekorda.
Srećom, nema mnogo onih koji su razočarani zbog toga što nisu uspeli da pronađu superstogodišnju dekoraterku torti. To je dobro, jer kako generativna veštačka inteligencija postaje sve bolja i bolja, sigurni znaci za otkrivanje lažnog sadržaja sve su ređi. Zbog toga smo ušli u trku s vremenom – možemo li smisliti druge načine da uočimo lažni sadržaj pre nego što on postane toliko uverljiv da ga ne možemo razlikovati od stvarnosti?
„Ponestaje nam vremena u kojem smo u mogućnosti da vršimo ručno otkrivanje. Modeli zasnovani na veštačkoj inteligienciji razvijaju se brzinom i tempom koji je, sa tehničke tačke gledišta, neverovatan i prilično alarmantan“, upozorio je Majk Spirs konsultant za VI koji radi na borbi protiv dezinformacija.
Prema njegovim rečima, postoje razne vrste „ručnih tehnika“ za uočavanje lažnih slika od pogrešno napisanih reči, do neprikladno glatke ili naborane kože.
„Ruke su klasika, a i oči prilično dobro otkrivaju ‘lažnjake’. Ali čak i danas, to oduzima mnogo vremena i to nije nešto što možemo da ubrzamo. A vreme ističe – modeli postaju sve bolji i bolji“, objašnjava Spirs.
Od 2021. godine kada je „OpenAI“ predstavio alat “Dall-E” za generisanje slika, objavljene su tri verzije, od kojih je svaka radikalno bolja od prethodne. Indi konkurent “Midjourney” objavio je šest verzija u istom periodu, dok je model “Stable Diffusion” besplatnog i otvorenog koda dostigao svoju treću verziju, a „Guglov“ „Džemini“ se takođe pridružio u nekom momentu.
Kako je tehnologija postajala moćnija, postajala je i lakša za korišćenje. Najnovija verzija “Dall-E”-ja ugrađena je u modele “ChatGPT” i „Bing“, dok „Gugl“ korisnicima nudi svoje alate besplatno.
Tehnološke kompanije počele su da reaguju na poplavu generisanih medija. Koalicija za poreklo i autentičnost sadržaja, čiji su članovi, između ostalih, Bi-Bi-Si, „Gugl“, „Majkrosoft“ i „Soni“, propisala je standarde koji se odnose na vodeni žig (watermark) i etiketiranje, a u februaru je „OpenAI“ najavio da će ih usvojiti za verziju alata za generisanje slika “Dall-E 3”.
Sada, slike koje generiše ovaj alat imaju oznaku da su nastale uz pomoć VI i mašinski čitljiv vodeni žig. Kompanija „Meta“ je takođe počela da dodaje sopstvene oznake sadržaju koji je generisan uz upotrebu VI i kaže da će ukloniti objave bez oznake.
Takve politike mogu pomoći u rešavanju nekih od najvirusnijih oblika širenja dezinformacija, poput šala ili satire koja se širi izvan svog prvobitnog konteksta.
Zamke označavanja sadržaja koji je generisan uz pomoć VI
Međutim, prisustvo oznaka takođe može stvoriti lažni osećaj sigurnosti, kaže Spirs: „Ako se javnost navikne da vidi slike koje je generisala VI sa oznakom na sebi, da li to znači da treba da veruju u verodostojnost bilo koje slike bez žiga?“.
To može da se razvije u problem, pošto označavanje nikako nije univerzalno niti će biti, najverovatnije. Velike kompanije poput „OpenAI“ bi mogle da pristanu da označavaju svoje kreacije, ali start-api kao što je “Midjourney” nemaju kapacitet da odvoje dodatno vreme svojih inženjera za rad na ovom problemu.
A tek kod projekata otvorenog koda, kao što je “Stable Diffusion”, nemoguće je korisnike naterati na primenu vodenog žiga, pošto je pravljenje sopstvenog modela uvek opcija.
Uz to uočavanje vodenog žiga ne mora nužno imati efekat koji bi neko želeo, kaže Henri Parker, šef vladinih poslova u grupi za proveru činjenica „Lodžikal“.
Kompanija koristi i ručne i automatske metode za proveru sadržaja, navodi Parker, ali označavanje može biti samo delimično uspešno.
„Ako nekome kažete da gleda dipfejk (deepfake) sadržaj pre nego što ga uopšte pogleda, socijalna psihologija gledanja tog klipa je toliko moćna da će ga i dalje doživljavati kao činjenicu. Dakle, jedino što možete da uradite je da pitate kako možemo da smanjimo vreme tokom kojeg je ovaj sadržaj u opticaju“, objašnjava Parker.
Pobediti detektore nije cilj samo zlonamernih
Na kraju krajeva, to će zahtevati automatsko pronalaženje i uklanjanje sadržaja generisanog veštačkom inteligencijom.
Ali to je veoma teško, poručuje Parker: „Već pet godina radimo na ovome, pokušavamo i prilično smo iskreni u vezi sa činjenicom da smo došli do oko 70 odsto, u smislu tačnosti koju možemo da postignemo. Kratkoročno gledano, problem je trka između otkrivanja i stvaranja: čak i generatori slika koji nemaju zle namere će želeti da pokušaju da pobede detektore, jer je krajnji cilj da stvore nešto tako istinito kao što je fotografija“.
U grupi „Lodžikali“ misle da je odgovor da se posmatraju stvari oko slike. „Kako zapravo pokušavate da sagledate način na koji se ponašaju akteri dezinformacija“, pita Parker i dodaje da to znači da treba pratiti razgovore na interneti kako bi oni koji imaju zle namere bili uhvaćeni u fazi planiranja na sajtovima kao što su 4chan i Redit.
Ipak, uz to i uz nadzor sumnjivih naloga, problem lažnih pozitivnih rezultata bio bi prisutan.
Drugi su optimističniji. Ben Kolman, izvršni direktor start-apa “Reality Defender”, na primer smatra da će uvek postojati mogućnost otkrivanja da slika nije prava.
Dovoljno je, kako kaže, doći do zaključka da postoji mogućnost da je nešto lažno, bez definitivne potvrde.
Ti znaci mogu biti bilo šta, od tragova finih filtera koji su su doveli do previše glatkih objekata, pa sve do video-sadržaja u kojem nije moguće pronaći nevidljivo, ali za preciznije alate uočljivo crvenilo koje se pokazuje na licu sa svakim otkucajem srca.
Tehnologija je, naravno, samo deo rešenja, ali je mesto odakle treba početi. Jer ako ljudi zaista veruju da je fotografija 122-godišnje žene sa tortom koju je sama ispekla autentična, onda neće biti potrebni najsavremeniji generatori slika da ih prevare da poveruju u druge, daleko štetnije stvari.
Izvor: RTS
Foto: YouTube printscreen