Rat u Ukrajini vodi se i pomoću ‘deepfake’ snimaka i društvenih mreža

Svi ‘deepfake’ snimci ili fotografije obrađene u aplikacijama za doradu slika prvo se plasiraju na društvenim mrežama, a kasnije ih preuzimaju mediji, najčešće proruski portali ‘od povjerenja’.

Dok je Twitter na samom početku agresije ukinuo naloge državnih propagandnih kanala, na mreži je i dalje aktivno nekoliko stotina naloga raznih ruskih državnih tijela, ambasada i međunarodnih misija (EPA)

Rat u Ukrajini je prvi vojni sukob koji je od samog početka bio globalno praćen putem društvenih mreža, aplikacija i YouTube snimaka.

Do sada je na Instagramu, Facebooku i aplikaciji Telegram objavljeno više od 1,2 miliona različitih video klipova iz Ukrajine, različitih dužina i sadržaja – od “građanskog novinarstva” i izveštavanja o civilnim žrtvama ruske agresije, preko apela za prikupljanje pomoći, pa sve do akcija spasavanja kućnih ljubimaca, koje su vlasnici jednostavno ostavili.

Oznaka #Ukraine na društvenoj mreži Twitter ima preko stotinu hiljada objava svakog dana, a dosad je na ovu temu tvitovano više od 144 miliona puta.

Pre desetak dana na društvenim mrežama, prvo Instagramu i TikToku, a kasnije i na svim ostalim, pojavio se kratak video u kome se vidi ukrajinski predsednik Volodimir Zelenski kako obavlja video poziv u svom kabinetu, a pored njega na stolu se nalazi beli prah, koji liči na kokain. Naravno, u pitanju je lažni video, najverovatnije produkt ruske obaveštajne službe FSB. Ono što je zabrinjavajuće je način na koji se ovakvi “deepfake” (kreirani lažni video) klipovi mogu generisati za veoma kratko vreme.

‘Duboki’ video i ‘duboka’ država

Sama “deepfake” tehnologija je relativno novi “izum”. Ovakvi video klipovi nastaju korišćenjem softvera baziranog na mašinskom učenju (machine learning, ML) i veštačkoj inteligenciji (artificial inteligence, AI). Oni mogu biti potpuno generisani od strane računara korišćenjem slika, kratkih video ili audio klipova i, kao u slučaju predsednika Zelenskog, mogu se i delimično modifikovati originalni video zapisi, dodavanjem vizuelnih ili audio elemenata.

Prvi takav softver je bio “Video Rewrite”, predstavljen još 1997. godine. Istraživači su putem njega mogli da modifikuju izraz lica i pokrete usana, kako bi osoba na snimku delovala da izgovara neki drugi tekst, sadržan u lažiranom audio delu. Kasnije verzije ovog softvera su bile gotovo potpuno samostalne, ali zbog niske rezolucije video snimaka u to vreme, nikada nije masovnije korišćen, već je više služio kao “proof of concept” tj. demonstracija mogućnosti ove tehnologije.

Nakon 2000. godine, pojavilo se još nekoliko sličnih softvera, ali su oni u suštini radili na isti način kao i “Video Rewrite”. Sve brži procesori, veći kapacitet RAM-a, te korišćenje 64-bitnih operativnih sistema krajem prve decenije 21. veka, doveli su do toga da istraživanje mašinskog učenja i veštačke inteligencije postane dostupno širokom krugu korisnika računara, a ne samo istraživačima na univerziterima. Tako je 2016. godine predstavljen softver pod imenom “Face2Face” (zamena lica) kojim je generisan možda široj populaciji i najpoznatiji “deepfake” video.

Video nazvan “Synthesized Obama” (veštački Obama) je sadržao govor tadašnjeg američkog predsednika Baracka Obame, sa tim što on taj govor nikada nije održao u stvarnom životu. Softver je upotrebio dva video snimka koje je “uvezao” u jedan, dok je reči i audio snimak stvorio od nekoliko drugih Obaminih govora. Rezultat je bio zastrašujuće realan video zapis, a istraživači su tada naveli da “za manje od decenije niko neće moći da veruje nijednom video zapisu, upravo zbog mogućnosti deepfake tehnologije”.

Pre četiri godine istraživači sa kalifornijskog Univerziteta Berkeley predstavili su svoj sopstveni softver za “deepfake” video zasnovan na veštačkoj inteligenciji. Ovaj softver je “učio” od hiljada sati stvarnih takmičenja u plesu, te je nakon toga mogao da generiše video u kome bilo koja osoba pleše savršeno. Softver baziran na sličnom kompjuterslom kodu je u stanju da lažira bilo kakav medicinski snimak – istraživači su demostrirali dodavanje “kancera” na snimak bilo koje zdrave osobe.

Sličice koje nisu ni snimljene

Unapređenje “deepfake” tehnologije poslednjih godina ima i novi naziv – “data pairing”. Za ovo je neophodan veći broj snimaka neke osobe (političara, javne ličnosti, sportiste, šefa korporacije ili bio koje druge osobe), a sami snimci moraju biti u visokoj rezoluciji. Uz korišćenje modela veštačke inteligencije “Cycle GAN”, ovaj “data pairing” softver može proizvesti toliko uverljive “deepfake” snimke da i sama osoba koja se nalazi na njima teško može da ih demantuje. Tehnologija GAN (Generative Adversarial Network) je ključna u kreiranju lažnih “deepfake” video snimaka. Kompjuterski model veštačke inteligencije uz pomoć specifičnog programskog koda može da analizira neki video zapis iz više “pravaca” i sa više aspekata (otud i naziv “network” – mreža za prepoznavanje). Kada se video snimak analizira, GAN softver može da predvidi sve druge mogućnosti izgleda samog videa i ponašanja osobe na njemu, te da generiše nove “sličice” unutra videa (frames), iako one nisu zaista i snimljene.

Sledeća generacija GAN softvera se naziva IGM (Implicit Generative Model), gde će računar moći da prepozna način kretanja, govora i gestikulaciju stvarne osobe iz nekog video snimka, te primeni sve te parametre na potpuno virtuelni, generisani kompjuterski model.

IT stručnjak Dušan Savić kaže da su ove tehnologije delimično već dostupne najširem krugu ljudi, koji i ne moraju biti programeri.

“Veliki broj ljudi je čuo ili već isprobao aplikaciju ‘FaceApp’, u kojoj možete ‘ostariti’ – aplikacija vam generiše sliku kako ćete izgledati u poznim godinama. U Kini je veoma popularna aplikacija ‘Zao’, koja može dodati vaš snimak u isečke iz popularnih kineskih sapunica. Aplikacija  ‘Wombo’ može generisati video u kome izgovarate reči iz filmova ili pevate popularne hitove”, objašnjava Savić.

“Možda i najkvalitetnija javno dostupna deepfake aplikacija je ‘ReFace’. Ona sa samo jednom vašom fotografijom može načiniti 3D model, koji se ponaša sasvim realistično i dodati ga u delove iz popularnih filmova, serija ili muzičkih spotova. Ova aplikacija je bazirana na GAN tehnologiji, koja se koristi i za ‘ozbiljne’ deepfake snimke”, dodaje.

Ratovanje na društvenim mrežama

Svi “deepfake” snimci ili fotografije obrađene u aplikacijama za doradu slika prvo se plasiraju na društvenim mrežama, a kasnije ih preuzimaju mediji, najčešće proruski internet portali “od poverenja”. Sama mreža Twitter je do sada uklonila više od 75.000 naloga koji su međusobno retvitovali lažne vesti sa ruskih portala (fake news). Zanimljivo je i da je gotovo trećina ovih vesti bilo na francuskom i nemačkom, što pokazuje da je Kremlju izuzetno bitan “dobar imidž” u ovim zemljama EU.

Još jedna od lažnih objava, koja se već mesecima širi na društvenim mrežama, je i grafikon po kome su 83 odsto ratova u poslednjih 50 godina počeli SAD i njegovi saveznici. Iako potpuno istorijski neutemeljeno, ove lažne činjenice su svoj put našle na zvaničnim nalozima ruskih diplomatskih predstavništava, a retvitovala ih je i kineska ambasada u Moskvi.

Tu su, naravno, i sveprisutni lažni korisnički nalozi, popularno nazvani “botovi”. Ruske službe imaju najmanje 350.000 lažnih “tviteraša” i još barem dva miliona izmišljenih korisnika Facebooka, te raznih grupa na aplikacijama Telegram, Signal i Viber. Svi ovi “botovski” nalozi se koriste za širenje ruske propagande, negiranje ratnih zločina u Ukrajini, te širenja dezinformacija o “propasti zemalja EU bez ruskih energenata”.

Takođe, “botovi” se koriste i za negiranje već utvrđenih činjenica sa terena. Fotografija učiteljice iz grada Čugujev, Olene Kurilo, podeljena je više od milion puta na Twitteru. Slika žene u zavojima, povređene kada je ruska raketa pogodila njen blok zgrada, za kratko vreme je postala “lice ruske agresije”. Ipak, nekoliko dana kasnije na Twitteru se pojavio video koji, navodno, prikazuje Olenu nepovređenu, u prihvatnom centru u Poljskoj. Ovaj video su ruski državni mediji prikazivali kao dokaz “specijalnog rata protiv Rusije”. Kasnije se ispostavilo da je u pitanju kompjuterski generisani “deepfake” video.

Upozorenje na dezinformacije sa aplikacija za dopisivanje

I dok je Twitter na samom početku agresije ukinuo naloge državnih propagandnih kanala RT i Sputnjik, na mreži je i dalje aktivno nekoliko stotina naloga raznih ruskih državnih tela, ambasada i međunarodnih misija. Svi oni se, očekivano, koriste za širenje propagande o navodnoj “ugroženosti Rusije o delovanja režima u Kijevu”. Samo 53 ovih Twitter naloga ukupno ima preko četiri miliona pratilaca, što opet dovodi do toga da se njihove objave dalje vide na barem 50 do 70 milona naloga korisnika širom sveta. Tako su objave ovih ruskih naloga od početka agresije retvitovane 26 miliona puta, i dobile više od četiri miliona odgovora.

Ruska ambasada u Londonu je sredinom marta prenela izjavu ministra spoljnih poslova Sergeja Lavrova u kojoj on negira napad ruskih snaga na porodilište u Maripolju: “Zgrada je već duže vreme prazna, a koriste je neonacisti iz bataljona Azov”. Ambasada je postavila i fotografiju povređene trudnice na nosilima, sa natpisom “fake” (laž). Nekoliko dana kasnije su stigle višestruko potvrđene informacije da su trudnica sa slike i njena beba – preminule.

Početkom marta, ukrajinske snage bezbednosti su upozorile svoje građane da ne podležu dezinformacijama na aplikaciji za sigurno dopisivanje Telegram. Naime, veliki broj ruskih vojnika je u Ukrajini koristio sopstvene mobilne telefone i smartfon uređaje, te su čak komunicirali nezaštićenim kanalima i aplikacijama. Kada je ukrajinska vojska primetila veliki broj ruskih SIM kartica aktivnih na istom području, bilo je jasno da su to zapravo telefoni ruskih vojnika, te im je onemogućen pristup ukrajinskoj mobilnoj mreži. Ruske snage su tada počele da oduzimaju telefone ukrajinskih civila, te da putem aplikacija Signal i Telegram šire lažne informacije, preuzimajući identitete ukrajinskih građana.

Američka Centralna agencija za sajber bezbednost (CISA) još početkom godine je upozorila da ruska vojna obaveštajna služba GRU ima na raspolaganju više od 1.400 naloga i grupa na aplikaciji Telegram, koje koristi za širenje proruske propagande i dezinformacija.

Takođe, jedna od najviše retvitovanih lažnih vesti je ona o “laboratorijama biološkog oružja u Ukrajini”. Ove lažne tvrdnje su više puta ponovili i sam Vladimir Putin, kao i nekoliko ruskih ministara i diplomata. Samo nekoliko dana kasnije, zvanično telo Ujedinjenih nacija za praćenje oružja za masovno uništenje i razoružanje je ove navode u potpunosti demantovalo.

“Nemamo nikakve informacije sa terena, kako sada, tako i u prethodnom periodu, o postojanju ovakvih laboratorija u Ukrajini” navela je šefica ovog Un-ovog tela, Izumi Nakamitsu.

Izvor: Al Jazeera

Reklama