''Deepfakes''

Strašan trend širi se internetom

''Deepfakes'' je opasan trend postavljanja ženskih lica (slavnih osoba poput glumica i pjevačica, ali i "običnih" tj. nepoznatih žena) na tijela ženskih osoba u pornografskim videozapisima.
Sci-Tech / Internet | 01. 02. 2018. u 17:58 Bljesak.info

Tekst članka se nastavlja ispod banera

Za mnoge žene jedna od najvećih noćnih mora je tzv. osvetnička pornografija, odnosno videozapisi seksa s bivšim partnerima koje su oni, bez znanja i pristanka bivših partnerica, iz osvete objavili na internetu i(li) društvenim mrežama.

Prije nekoliko godina čak su postojale prilično popularne internetske stranice na kojima su objavljivani takvi videozapisi i čiji su vlasnici zarađivali solidan novac objavljujući videa koja su uništila živote ženama čije su intimne trenutke vidjeli deseci, a možda i stotine tisuća ljudi diljem svijeta.

Srećom, takve su stranice (barem one najpoznatije) zatvorene, kao i njihovi pokretači koji su završili u zatvoru, no u posljednje vrijeme internetom se raširio jedan još opasniji trend zbog kojeg bi na PornHubu ili drugim stranicama mogli osvanuti pornografski videozapisi na kojima će se lica ženskih osoba koje sudjeluju u videu zamijeniti s licima ''običnih'' žena koje su objavili bivši partneri, stalkeri ili neprijatelji tih osoba i koje, naravno, nemaju apsolutno nikakve veze s tim videozapisima, piše Zimo.co.

Deepfakes i FakeApp

Tijekom prosinca na stranici Motherboard objavljen je članak o programeru poznatom po nadimku s Reddita kao Deepfakes koji je, korištenjem algoritma strojnog učenja, open-source koda i drugim jednostavno dostupnim materijalima uspio na pornografskim videozapisima lica pornoglumica zamijeniti s licima poznatih zvijezda poput Gal Gadot i Taylor Swift, pri čemu su takvi videozapisi izgledali prilično realno.

U razgovoru za Motherboard Deepfakes (nije htio otkriti svoj pravi identitet) rekao je kako inače proučava strojno učenje te je uspio pronaći "pametan način zamjene lica" na videozapisima korištenjem tehnika treniranja umjetne inteligencije.

S vremenom su sličnu tehniku počeli koristiti i drugi korisnici Reddita te se ovaj trend u medijima proširio pod nazivom deepfakes, a nedugo nakon toga drugi korisnik Reddita objavio je aplikaciju FakeApp koja svima omogućava zamjenu lica na videozapisima s prilično uvjerljivim rezultatima.

Nekoliko sekundi koje mogu uništiti živote

Na Redditu su se vodile i i dalje se vode brojne rasprave o trendu deepfakesa i dok neki brane objavu takvih videozapisa, dio korisnika je zgrožen, a zbog realnosti ovakvih videa neki su ih korisnici nazvali digitalnim silovanjem.

Posebno zabrinjava što se te tehnike zamjene lica i aplikacija više ne koriste samo kako bi se slavne osobe ubacile u porniće, već su se na Redditu korisnici pohvalili kako su napravili realne videozapise s osobama koje poznaju – bivšim curama, prijateljicama, poznanicama iz škole montirali su lica na videozapise sa scenama seksa, piše Zimo.co.

Samo jedan takav video od nekoliko sekundi može uništiti život te će osobama s videa biti jako teško dokazati kako je riječ o lažnom videozapisu, pogotovo što će s vremenom algoritam biti sve bolji te će videozapisi izgledati sve realnije.

Objavljujete puno fotografija na Facebooku i Instagramu? Razmislite još jednom!

Osim tehnike kojom se Deepfakes koristio, odnosno aplikacije FakeApp, za ovakav video potrebne su i fotografije, odnosno videozapisi osoba čije se lice želi postaviti u (porno)videa, što danas i nije teško nabaviti zahvaljujući društvenim mrežama poput Facebooka i Instagrama, na kojima se objavljuju stotine i tisuće fotografija i videa, te raznim alatima koji omogućuju jednostavno skidanje svih javno dostupnih fotografija s tih mreža na računala.

Nakon toga, potrebno je pronaći porno glumicu, odnosno video sa ženama čije su tijelo i lice slični ženi čije se lice želi montirati na tijelo – naravno, i za takve su stvari dostupne aplikacije na internetu. Za kraj je potrebno sve uploadati u aplikaciju, pokrenuti je i čekati – nekad je potrebno i više od deset sati da se dođe do konačnog rezultata, odnosno videa koji može biti zastrašujuće realan.

Nije kažnjivo zakonom?

Ovog tjedna u SAD-u se puno piše o tome krši li se stvaranjem i objavom ovakvih videozapisa neki zakon, no nekakav konkretan zakon kojim bi se kažnjavalo montiranje lica na (pornografske) videouratke u biti ne postoji te je cijela situacija prilično komplicirana.

Neki čak smatraju da bi se brisanjem ovakvih videa prekršio prvi amandman američkog Ustava. Ipak, posljednjih su dana na Redditu i popularnom servisu za objavu GIF-ova Gfycatu obrisani brojni takvi videozapisi i GIF-ovi te se čini da su na tim stranicama odlučili stati na kraj trendu deepfakesa, piše Zimo.co.

Što donosi budućnost?

Sigurno je da će tehnologija napredovati te će ovakvi videozapisi biti sve realniji, a nažalost uvijek će biti ljudi koji će tehnologiju iskorištavati kako bi napakostili drugima, osramotili ih pa čak i ucjenjivali lažnim videozapisima.

Također, ova tehnologija mogla bi imati velikog utjecaja i na širenje lažnih vijesti s političarima ili javnim osobama u glavnim ulogama te će granica između onog što je stvarno i onog što je napravljeno na računalima biti sve tanja i teže prepoznatljiva.

Kopirati
Drag cursor here to close