Žrtve su bile Lidija i Nives: Deepfake pornografija postaje sve veći problem

Foto: Shutterstock

Prije nekoliko tjedana po zatvorenim WhatsApp i Viber grupama počela je kružiti lažna 18+ fotografija Lidije Bačić. Netko je jednostavno s njene prave fotografije u kupaćem kostimu maknuo kostim.

Vrlo sličnu situaciju pet mjeseci ranije doživjela je i Nives Celzijus.

"Njihovo zlodjelovanje je vrlo ograničeno ako ne pridobiju masu sljedbenika koji će distribucijom podržati njihov zločin. Problem je što ljudi još uvijek nisu osvijestili da je deepfake, kao jedna od potkategorija osvetničke pornografije, postao kazneno djelo. Premalo se govori o tome u medijima. A ljudi su još manje osvijestili da podržavanjem takvog sadržaja daljnjim dijeljenjem i oni postaju dio tog zločinačkog lanca", izjavila je za Index tom prilikom.

Pornografija je služila kao alat za ucjenu davno prije nego što je umjetna inteligencija postala svakodnevni termin u medijima. Ucjenjivači računaju da se nikad neće doći do njih, a zna se dogoditi i da se žrtva od srama i očaja na kraju ubije.

Slučaj Jordana DeMaya

Jedan takav tragični događaj odvio se prošle godine u Michiganu. Jordanu DeMayu, američkom 17-godišnjem srednjoškolcu, počeo se javljati račun s imenom "Dani Robertts". Zapravo je bila riječ o klasičnoj prevari: "Dani" su bila braća Samuel i Samson Ogoshi iz Nigerije, a poslali su gole slike neke nasumične djevojke s interneta. Zauzvrat su dobili Jordanove stvarne. 

Nakon toga su počeli od njega tražiti 1000 dolara ako ne želi da gole slike dođu do njegovih prijatelja i obitelji. Jordan je poslao 300 dolara, a kad ucjenjivači nisu bili zadovoljni, oduzeo si je život. Cijela drama trajala je samo šest sati.

Najveći problem je u tome što se do počinitelja zapravo došlo potpuno slučajno. Jordanova cura Kyla Palomaki čitala je izraze sućuti, među kojima je bila i jedna poruka ucjene. Preko IP adrese se došlo do počinitelja, koji su onda izručeni Sjedinjenim Državama i vjerojatno ih čeka poprilična zatvorska kazna.

Da nije slučajno naletjela na kriminalne poruke, moglo bi im se staviti soli na rep. U velikoj akciji Interpola protiv internetskih prevaranata ove godine uhićeno je skoro 3500 ljudi, a zaplijenjeno 300 milijuna dolara. Ipak, to je kap u moru - prema procjenama, samo u Americi se svake godine sa seksualnim ucjenama na internetu susretne oko 120 tisuća ljudi.

83% prođe ispod radara. Kako stvari pogoršava AI?

Ove godine bilo je prijavljeno 22.600 slučajeva: dakle, šokantnih 83% prođe ispod radara, a preko pola žrtava plati ucjenjivačima samo da ih ostave na miru. U Hrvatskoj je situacija još gora jer, prema procjeni udruge B.a.B.e., online nasilje te vrste prijavi samo 3-4% žrtava.

Uz takvu statistiku, nije teško uočiti problem s (relativno) novim tehnologijama umjetne inteligencije i deepfakea. Sada gotovo svatko može na pornografskoj stranici pronaći neki video, uz pomoć programa na njega nalijepiti lice osobe od koje želi iznuditi novac i početi sa zločinačkom radnjom.

Ako mislite "baš me briga", u krivu ste - ciljane žrtve prevaranata najčešće su ranjive skupine kao što su tinejdžeri, što dokazuje više slučajeva u kojima se žrtvu u samo nekoliko sati uspjelo dovesti do samoubojstva. 

Tehnologija iz dana u dan postaje sve uvjerljivija te je pitanje hoće li kroz nekoliko godina uopće biti moguće raspoznati autentične snimke od onih napravljenih kod kuće u aplikaciji. Ta tanka linija medijski nepismenijima stvara probleme već danas.

Nedavno se po društvenim mrežama proširila očita deepfake zajebancija u kojoj Elon Musk objašnjava da je iz Republike Srpske. To je bila parodija na izjavu teoretičarke zavjere Jovanke Jolić, koja je objašnjavala podrijetlo Elona Muska u opskurnom internetskom podcastu Balkan info. Iako je takva tvrdnja potpuno apsurdna, nakon nekoliko dijeljenja po Instagram stranicama, našlo se više desetaka ljudi koji su u komentarima neironično pitali je li to stvarno rekao.

Ova situacija jasno oslikava problem - dio populacije, sa svim dostupnim informacijama, nije u stanju razlučiti je li Elon Musk iz Republike Srpske. Kako onda očekivati da znaju jesu li Joža iz Špičkovine i Slavica iz Babine Grede, koje su maloprije vidjeli u porniću na ekranu, samo hrpa programiranih piksela? Prema istraživanju University Collegea u Londonu, 27% primjera deepfake govora ljudi nisu uspjeli registrirati kao umjetno stvorene. Možemo očekivati da će se taj postotak samo povećavati napretkom tehnologije.

@nijesedesiloo Elon Musk priznao! #serbia #elonmusk #croatia #parrotai #fyp #ai ♬ original sound - Nijesedesilo

Deepfake pornografija u zadnjih nekoliko godina postala je i unosan biznis, a sve što donosi novac nužno će se raditi sve više.

Nije teško zamisliti scenarij u kojem svi uskoro počinjemo živjeti Blade Runnera i u kojem je nemoguće procijeniti je li išta što vidimo na ekranu stvarno ili umjetno stvoreno. Fotomontaža postoji još od 19. stoljeća, ali ta tehnika donedavno je bila dostupna izuzetno malom broju stručnjaka i rijetko uvjerljiva ako bi je netko odlučio zlouporabiti.

Otimanje kontroli

Digitalnu apokalipsu replikanata bit će moguće zaustaviti samo na jedan način, što je zapravo trebalo biti napravljeno već davno - zabranom bilo kojeg oblika lažnih profila ili anonimnosti na društvenim mrežama. Jednostavna regulativa, prema kojoj bi svatko morao skenirati osobnu iskaznicu kad objavljuje nešto na internetu, prevenirala bi stotine tisuća slučajeva prevara, dezinformiranja i ucjena. 

Ako stvari ostanu ovakve, svaki internetski Pero Perić će u deset minuta moći montirati susjeda kojeg ne voli na pornić, objaviti to po svim društvenim mrežama i poslati ostalim susjedima za svaki slučaj. Dok susjed objasni da to na snimci zapravo nije on, bit će u brakorazvodnoj parnici i odrađivati otkazni rok na poslu.

Jasno je da u europskim zakonodavnim institucijama uglavnom sjede metuzalemi koji su za internet čuli prekjučer, ali on je tu već preko 30 godina. Ne bi bilo loše dovesti ga u red prije nego što se potpuno otme kontroli.

Stavovi izneseni u kolumnama i komentarima su osobni stavovi autora i ne odražavaju nužno stav redakcije Index.hr portala.

Komentare možete pogledati na ovom linku.

Pročitajte više

 
Komentare možete pogledati na ovom linku.