Susret sa izmenjenim video zapisima i slikama je gotovo svakodnevni „obred“ bez koga nema prolaza na internetu. Danas je retkost da posetite društvene mreže i da ne naiđete na neki oblik uređenog sadržaja — bilo da je to običan selfi sa filterom, veoma ukrašen mem ili video.
Dok se neki oblici medija očigledno uređuju, neke druge izmene teže je uočiti. Možda ste čuli za termin „deepfake“ poslednjih godina — prvi put se pojavio 2017. da opiše video zapise i slike koje primenjuju algoritme dubokog učenja za kreiranje video zapisa i slika koje izgledaju stvarno ali to svakako nisu.
Da ne bude iznenađenje, Džon F. Kenedi, Barak Obama i Vladimir Putin, takođe su bili predmet dubokih lažnih video snimaka, u kojima se čini da govore i rade stvari koje zapravo nikada nisu rekli ili uradili. Iako se u popularnim medijima raspravljalo o porastu deepfake-a u poslednjih nekoliko godina, rešavanje ovog problema i dalje visi u vazduhu.
Istraživači su izrazili zabrinutost da bi ove lažne slike i video snimci mogli predstavljati rastući bezbednosni rizik u narednim godinama. U izveštaju koji se sačinjen prošle godine predviđa se da će deepfake predstavljati izuzetno ozbiljnu bezbednosnu pretnju u narednih 15 godina, prevashodno zbog ubrzanog rasta tehnoloških trendova.
„Ljudi imaju jaku tendenciju da veruju u sve što vide i čuju“, napisali su istraživači u zaključcima. Dakle, kada mediji koje konzumiramo izgledaju previše dobro da bi bili lažni, lako je postati žrtva prevare. A količina deepfake-a na mreži nastavlja da raste, i to na mestima gde ih najmaje očekujete.
Laka dostupnost Deepfake tehnologije
Tehnologija za kreiranje deepfake-a postala je lakša za pristup tokom godina, sa nekoliko programa i veb lokacija koje se pojavljuju omogućiće vam da napavite potpuno lažni život, lažne slike, video zapise i ostale multimedijalne sadržaje. Đorđo Patrini, izvršni direktor i osnivač kompanije Sensity u Amsterdamu koja istražuje širenje deepfake-a od 2018. ipak ističe da, bez obzira koliko je rasprostranjena, većina je napravljena pomoću istih alata otvorenog koda i koriste nekoliko istih metoda za izmenu digitalnih zapisa.
U proteklih nekoliko meseci Facebook je objavio rezultate takmičenja na kojem su stručnjaci izgradili nove algoritme za otkrivanje dubokih lažiranih zapisa— pobednik je bio u stanju da otkrije čak 82% medija izmenjenih veštačkom inteligencijom kojima su bili izloženi. Neki deepfake-ovi se mogu napraviti korišćenjem metoda koje je još uvek teško uočiti trenutnim algoritmima za detekciju, ali Patrini kaže da „divlji“ kreatori deepfake-a obično koriste jeftinije, jednostavnije metode kada prave video zapise.
„Rekao bih da je možda 99%, ili čak više, duboko lažnih video snimaka koje pronađemo zasnovano na zameni lica“, kaže on. „Postoje i drugi načini za pravljenje lažnih video zapisa, čak i promena glasa i govora i pokreta usana, ili promena pokreta tela. Ali do sada, to nisu najpopularnije metode među poznavaocima deepfake-a, kaže Patrini, tako da trenutni algoritmi i dalje mogu ukloniti veliki deo sadržaja koji je izmenjen veštačkom inteligencijom.
Iako se tehnologija zamene lica može primeniti na bukvalno bilo koju fotografiju ili video sa ljudskim licem, čini se da kreatori deepfake-a imaju afiniteta za jednu drugu vrstu medija: pornografiju. Ogromna količina video snimaka izmenjenih veštačkom inteligencijom kreirana je da se lice jednog subjekta stavi na telo glumca u filmovima za odrasle — fenomen koji nesrazmerno cilja žene i ispoljava svoju mračnu stranu.
Zloupotreba veštačke inteligencije u pornografske svrhe
Frapantan podatak iz 2019. godine kada je Sensity objavio izveštaj o stanju deepfake-a pod imenom Deeptrace, govori da je otkriveno ukupno 14.678 video snimaka izmenjenih veštačkom inteligencijom na mreži. Od toga, čak 96 % je korišćeno u pornografskom sadržaju.
Prvi deepfake video snimci su, u stvari, napravljeni iz istog razloga. U 2017. godini, korisnici na Redditu počeli su da postavljaju izmišljene video snimke poznatih ličnosti čija su lica bez pristanka zamenjena na telima porno glumaca. Reddit je zabranio korisnicima da objavljuju ove eksplicitne deepfake 2018. godine, ali izveštaji pokazuju da su se pojavie druge etički problematične stranice, što je povuklo eskalaciju problema u privatnom životu kompromitovanih osoba.
„Nismo otišli daleko od toga“, kaže Patrini. Uprkos široko rasprostranjenom medijskom izveštavanju o političkim lažnjacima, pornografske izmene su vladajući oblik sadržaja izmenjenog veštačkom inteligencijom koji se širi internetom. I do sada su žene uglavnom uvek bile na meti — izveštaj Sensity -a za 2019. je otkrio da je 100% otkrivenih pornografskih lažnjaka predstavljalo ženske subjekte.
Takođe, Sensity je identifikovao ukupno 49.081 deepfake video snimaka na mreži – trend koji pokazuje da se brojke udvostručuju skoro svakih šest meseci. U poslednje vreme, primećen je porast video zapisa koji ciljaju popularne ličnosti ili uticajne ljude. Pre možda godinu dana videli smo da su u većini sadržaja akteri poznate ličnosti koje bi mogle biti iz industrije zabave, ali kreatori deepfake-a takođe ciljaju na pojedince, često i anonimne žene, koje vode aktivan život na mreži i imaju gro svojih slika i video zapisa koji se mogu “lažirati“, a da to osoba i ne zna.
Koliko je opasna zloupotreba i koji su bezbednosni rizici?
Dok mediji izmenjeni veštačkom inteligencijom mogu izgledati kao loši, sama tehnologija nije sama po sebi loša. Sama tehnologija može se koristiti za niz kreativnih projekata — kao što su usluge prevođenja ili vizuelni trikovi u filmovima i TV emisijama. Važno je razlikovati upotrebu od zloupotrebe.
Takođe, primećen je porast slučajeva kada se deepfake koristi za lažno predstavljanje u cilju pristupa bankovnom računu ili bitkoin novčaniku. Za ove procese može biti potrebna video verifikacija, a moguće je da deepfake prevari i kamere.
Sa određenom sofisticiranošću, ljudi zapravo mogu da lažiraju ličnu kartu, a takođe i da lažiraju kako se pojavljuju na snimku. Ponekad to može značiti otvaranje naloga pod tuđim imenom ili lažnim imenom i stvaranje ličnosti koja ne postoji. A kako tehnologija postaje sve lakša za pristup, verovatno će se širenje deepfake-a nastaviti.
Možemo se samo nadati da će ljudi izabrati da ih koriste za dobro.