Deepfake – šta kad više ne možemo vjerovati svojim očima i ušima

Novi dan, nova aplikacija. Od varijacija na temu obrađivanja fotografija i uljepšavanja selfija, preko igrica za sve starosne dobi, pa sve do onih “ozbiljnijih”, poput aplikacija za mobilno bankarstvo i pomoć u upravljanju ličnim finansijama – toliko ih je da je gotovo nemoguće ispratiti sve novitete, čak ni nekome (čitaj: meni) kome je ovo dio dnevne rutine.

Iskrena da budem, iako sam beskrajno radoznala, mali je broj aplikacija sa kojima “kliknem” na prvu i poželim da ih instaliram, a još manji broj onih koje ne zaboravim nakon kraćeg vremena. Jedna od onih kojima nisam mogla da odolim i da je odmah ne isprobam je Impressions, a kad pogledaš ovaj video, vjerovatno će ti biti i jasno zbog čega:

Ova aplikacija mi je interesantna i zbog još jednog razloga, a to je ogromno interesovanje prema jednoj od stvari iz sviđa mi se, ali me i plaši kategorije – deepfake sadržaja.

Šta je deepfake i kako nastaje?

Definicija kaže da je u pitanju tehnologija zasnovana na vještačkoj inteligenciji pomoću koje se mijenja postojeći ili stvara potpuno novi, najčešće video, sadržaj koji ima za cilj da prikaže ono što se NIJE zaista desilo. Ja definicije uglavnom ne pamtim, pa kad me neko pita o čemu se ovdje radi, imam običaj da kažem kako su svih 7 kategorija lažnih vijesti ništa u poređenju sa deepfake sadržajem.

Nemoj me pogrešno shvatiti – ovim ne želim da potcijenim moć lažnih vijesti, ali zamisli da se pred tobom nalazi članak u kojem je parafrazirana ili citirana tvoja omiljena javna ličnost, a odmah pored njega druga objava u kojoj je prikazan video govora iste te ličnosti. Mislim da i ti i ja znamo odgovor na pitanje šta će ti od ovo dvoje biti vjerodostojnije. Uz to, čak i onda kada znamo da je sadržaj lažan, ponekad on bude toliko upečatljiv da nam ostane u sjećanju kao vijest, a kako vrijeme prolazi, više i nismo toliko sigurni da li se pokazalo da je ono što smo vidjeli istinito ili izmišljeno.

Upravo u tome i leži opasnost, jer, otkako se 2017. godine popularizovao deepfake video sadržaj, tehnologija je toliko napredovala da je ponekad teško razlikovati stvarno od nestvarnog, a toliko je dostupna da veliki broj ljudi može napraviti sadržaj ovog tipa uz pomoć softvera koji je dostupan za besplatno preuzimanje, baš kao što je i objašnjeno u ovom videu:

Dakle, riječ je o softveru koji “izučava” govor tijela određene osobe, prije svega njenu facijalnu ekspresiju, što mu pomaže da kreira deepfake video sadržaj. Ako bih te sada pitala da li je moguće kreirati deepfake video uz pomoć samo jedne statične fotografije, vjerovatno bi odgovor bio negativan, baš kao što sam i ja smatrala sve do konsultacije sa Googleom koji me razuvjerio.

U istraživanju koje je prošle godine objavio Samsung AI centar iz Moskve, zajedno sa Skolkovo institutom za nauku i tehnologiju, objašnjeno je kako je ovo moguće i to na primjeru Mona Lize, pa ako si se uvijek pitao šta se krije iza njenog zagonetnog osmijeha, možda to sada možeš sam naslutiti na osnovu njene mimike i pokreta.

Sličan tretman dobili su i Vermerova Djevojka sa bisernom minđušom i Ajnštajn, ali ono što je mene oborilo s nogu je “oživljavanje” Dalija za potrebe muzeja na Floridi. Da ne bude zabune, poštujem kustose i njihov rad, kao i svo znanje i otkrića koja su nam dostupna putem velikog broja enciklopedija, ali sigurna sam da ništa nije ni blizu tome da o nekome učiš od osobe koja ga zaista najbolje poznaje: nje same. Još kada na kraju dobiješ i selfi kao trajnu uspomenu na ovo veličanstveno iskustvo, pa sreći stvarno nema kraja.

Dok ovo gledam, ne mogu da ne poželim da se teleportujem u muzej i uživo vidim proizvod koji je nastao nakon istraživanja i analize stvarnih Dalijevih video materijala, zatim izučavanja njegovih pokreta do najsitnijih detalja od strane sistema, da bi se došlo do 125 interaktivnih videa u kojima glavni akter nije neko ko glumi umjetnika, već zaista njegova predstava.

Zbog čega deepfake sadržaj može biti opasan?

Do sada smo vidjeli zanimljive strane deepfake videa. Ipak, ukoliko se ova tehnologija koristi u druge svrhe, poput prvobitne, gdje su se lica poznatih koristila za videe pornografskog sadržaja, ona ne samo što mogu diskreditovati konkretne ličnosti i ukaljati njihov ugled, već mogu negativno uticati i na nas koji ih gledamo.

U situaciji kada gledamo video koji je u skladu sa našim stavovima i uvjerenjima, a naročito ako je u pitanju govor osobe u koju imamo povjerenja, velika je mogućnost da povjerujemo u to što se govori, čak i onda ukoliko postoji upozorenje da se možda radi o lažnom, izmontiranom sadržaju. Zamisli samo situaciju u kojoj pristalice nekog lidera gledaju i slušaju njegov govor u kojem poziva na mržnju i sukobe prema suprotnoj strani. Naravno da ova situacija nije za šalu, a dok se pristalice uvjere da je u pitanju lažni video, može proći određeno vrijeme tokom kojeg se mogu desiti događaji kojih vjerovatno ne bi bilo bez istog tog deepfake videa.

Sada kad sam otišla skroz u jednu krajnost, vrijeme je da se iz tog ekstrema vratim nekoliko koraka nazad i predstavim ti jedan od stvarnih primjera. Možda si ovo već gledao, jer je bilo toliko puta dijeljeno na Facebook-u. Riječ je o nerazgovjetnim govorima Nancy Pelosi, predsjednice Predstavničkog doma američkog Kongresa, koji su izazvali polemiku u vezi sa tim da li je bila pijana tokom istih. Šta se desilo i šta je zapravo istina, procijeni sam.

Vidio si koliko je lako postići ovaj efekat – samo malo usporiš brzinu kojom se riječi izgovaraju, objaviš i postaje viralno preko noći. Važna stvar koja ovdje igra ulogu je i ono što često možeš čuti ukoliko se baviš ili si samo prisutan na društvenim mrežama, a to je ta da ovdje najbolje prolazi upravo video sadržaj. Tako to izgleda kada se sve kockice poklope u korist deepfakea. 🙂

Kako ne nasjesti na deepfake video?

Sumnja nije baš najbolja stvar u većini slučajeva, ali ovdje je, ruku pod ruku sa konstantnim preispitivanjem onoga što gledamo i slušamo, itekako dobrodošla. Ne kažem da sada treba oko svakog videa da se opterećuješ i na razmišljanje o njemu potrošiš čitavu vječnost, ali doza opreza je svakako poželjna.

Naravno, ovo ne važi za videe kojima je svrha isključivo zabava, poput onih koje možeš naći na Ctrl Shift Face YouTube kanalu. Dok gledaš video i zabavljaš se izgovarajući glasom iz Digimona: Bil Hader postaje Al Pacino. (znam, glupo je, ali jače je od mene), možeš vidjeti koliko tehnologija napreduje i koliko se obraća pažnja na detalje, što posao razdvajanja stvarnog od nestvarnog čini još težim.

Da skratim priču prije nego probijem sve limite dužine ovog teksta. Ako voliš serije, preporučujem ti da pogledaš The Capture, a zaključak priče prepustiću nekom drugom. Kome, otkrićeš sam, a ja odoh da se još jednom brzinski pretvorim u Rihannu uz pomoć aplikacije o kojoj sam ti pričala. 🙂

Ovaj članak dio je društveno odgovornog poslovanja kompanije doMEn koja godinama ulaže napore da Internet i nove tehnologije približi crnogorskom društvu, a posebno mladima. Od svog osnivanja, donira i direktno učestvuje u projektima koji nastoje da omoguće mladima sticanje vještina iz oblasti programiranja i robotike. Prošle godine kompanija je pokrenula portal namijenjen popularizaciji prirodnih nauka među mladima.

Autorka: Sanja Mračević za kompaniju doMEn

Author: Gostujući bloger

Share This Post On

1 Comment

  1. Ovo je strašno!!!

    Post a Reply

Vaše mišljenje: