Kako je uz pomoć ’deepfake’ tehnologije napravljen lažni Kličko

Društvene mreže, prvenstveno Facebook, Twitter i Instagram, su uvele tzv. nultu toleranciju na sadržaje za koje se sumnja da su kreirani ‘deepfake’ tehnologijom.

'Savršeni dvojnik' gradonačelnika Kijeva razgovarao je sa gradonačelnicom Berlina, te pokušao razgovarati sa čelnim ljudima Madrida i Beča (Keystone)

Iako se o razvoju veštačke inteligencije govori već duže od jedne decenije, ovo polje je i dalje rezervisano uglavnom za računarske eksperte i stručnjake.

Ipak, praktične primene veštačke inteligencije (artificial intelligence, AI) i mašinskog učenja, poput video igara, aplikacija, te u različitim pametnim uređajima su postale svakodnevnica, pa ih stotine miliona ljudi širom sveta svakodnevno koristi.

Lažni snimci i ukrajinski bokseri

Video snimak razgovora evropskih zvaničnika sa gradonačelnikom Kijeva Vitalijem Kličkom je prošle nedelje obišao svet. To ne bi bilo ništa neobično da se zapravo nije radilo o kompjuterski generisanom (deepfake) video pozivu lažnog gradonačelnika. Da nešto nije u redu sa ukrajinskim sagovornikom prva je primetila gradonačelnica Berlina Franziska Giffey.

„Nismo odmah posumnjali da je posredi zapravo lažna, kompjuterski generisana osoba. Sada nemačka policija ispituje ovaj slučaj“, rekla je Giffey.

Prvih pola sata razgovora je proteklo potpuno normalno, a (lažni) gradonačelnik Kličko se uglavnom interesovao za život ukrajinskih izbeglica u Nemačkoj. Ipak, naredne teme o ljudskim pravima u Ukrajini, te budućim potezima Berlina i pomoći ukrajinskim borcima su delovale prilično čudno. Veza se uskoro prekinula, a nekoliko sati kasnije ukrajinski ambasador u Berlinu, Andrej Melniyk je potvrdio da gradonačelnica zapravo nije razgovarala sa Vitalijem Kličkom, te da on čak nije ni znao za taj poziv.

Vladimir i Vitalij Kličko su svetski poznati bokserski prvaci. Vitalij je stariji (rođen 1971. godine) od Vladimira (pet godina mlađi), a boksom su počeli da se bave i da ga treniraju još kao deca. Godine 2011. su oborili i Ginisov rekord po broju pobeda i titula koje su istovremeno držali (tada 30-ak, a više od 40 do kraja karijere). Nakon penzionisanja dotadašnjeg najboljeg svetskog boksera Lennoxa Lewisa 2004. godine, braća Kličko će u svetu profesionalnog boksa osvojiti sve četiri najvažnije svetske titule u teškoj kategoriji – WBA, IBF, WBO i IBO. Oba brata su tokom svoje karijere razvili specifičan stil boksa, a obojica su i doktori sportskih nauka. Vitalij je i nekadašnji poslanik u parlamentu Ukrajine (Vrhovna Rada), te gradonačelnik Kijeva od 2014. godine.

Pokušaji ’razgovora’ i sa drugim gradonačelnicima

Lažni (kompjuterski generisani) Vitalij je pokušao da uputi i video pozive gradonačelniku Madrida Joseu Luisu Martinez-Almeidi i gradonačelniku Beča Michaelu Ludwigu, ali su pozivi prekinuti posle nekoliko minuta. Oba slučaja su prijavljena tamošnjim policijama.

U evropskoj javnosti se sada postavlja pitanje – da li iza ovakvih „trikova“ zapravo stoji Rusija i ruske obaveštajne službe?

Deepfake tehnologija postoji skoro deceniju, a nastala je kada su računarski modeli veštačke inteligencije počeli da samostalno analiziraju video i audio zapise. Budući da je svaki video u online prostoru ili na aplikacijama zapravo skup pojedinačnih podataka (frameova), veštačka inteligencija može da „nauči“ kako da ove podatke menja u realnom vremenu. Prvi računarski softver ove vrste je bio program „Video Rewrite“, napisan još 1997. On je mogao da menja video i lice govornika, kao i izraz lica i usana, te da učini da osoba na konačnom video snimku deluje kao da izgovara rečenice koje zapravo nikada nije izgovorila u stvarnosti.

Tokom naredne decenije mnogi istraživači će unaprediti tzv. GAN algoritme (generative adversarial network, računarski softver koji sam uči). Kada se u ovakav GAN softver unese neki video ili audio zapis, računar pravi bazu podataka o ponašanju osobe na snimku, njegovom hodu, izrazu lica, odeći, itd. Kada GAN softver „nauči“ ove karakteristike iz određenog broja video snimaka, on dalje može samostalno da izmeni potpuno nepovezani video zapis i da na njega prenese parametre osobe iz prvog videa. U praktičnoj primeni, što više snimaka deepfake GAN softver „vidi“, to bolji postaje u kreiranju potpuno novog lažnog videa.

Ova tehnologija ima toliko potencijalno opasnih i štetnih primena da je američka savezna država Kalifornija još 2019. donela propis kojim se zabranjuje korišćenje „softvera i tehnologija za sintetički video“. U praksi, radi se o deepfake tehnologijama.

Na YouTubeu i društvenim mrežama već godinama se „vrti“ snimak pod nazivom „Synthetized Obama“ (veštački predsednik Obama), u kome bivši američki predsednik drži govor koji nikada zapravo nije održao. I sam Obama je bio zapanjen realističnošću ovog snimka, te upozorio na moguće zloupotrebe veštačke inteligencije i GAN softvera.

Istraživači sa kalifornijskog univerziteta Berkeley već godinama razvijaju GAN deepfake softver koji može načiniti video snimak bilo koje osobe gde ona pleše kao profesionalni igrač. Ove tehnologije toliko brzo napreduju da već postoji i posebna disciplina nazvana „Cycle GAN“, gde jedan računar, koji je „ekspert“ za deepfake video i poseduje veliku bazu podataka, može da „nauči“ druge računare na mreži ili preko interneta kako da i oni kreiraju ove „lažne osobe“.

Opasnosti na Facebooku i Instagramu

IT stručnjak Milan Stamenković kaže da mi već koristimo ovu vrstu veštačke inteligencije, a da to i ne znamo.

„Kada postavite sliku na Facebook, mreža automatski prepoznaje vaše prijatelje, iz prethodnih objava ili video zapisa. Ova tehnologija ‘prepoznavanja lica’ je toliko dobra da može prepoznati članove vaše porodice ili prijatelje čak iako promene frizuru ili nose naočare. Takođe najnovija unapređenja ovog ’FR’ algoritma na Facebooku omogućavaju da na slikama, video zapisima ili objavama prepoznaje i ljude koji vam nisu u mreži prijatelja, te da ih tačno označi“, objašnjava Stamenković.

Instagram, mreža koja je takođe deo Facebooka, ima najveću bazu fotografija na planeti, više od 50 milijardi, dodaje.

„Algoritam tako može da vas prepozna čak iako postavite sliku od pre nekoliko godina ili da označi osobe u vašim fotografijama koje srećete po prvi put“, navodi Stamenković.

Kompjuter prepoznaje svaku osobu

Istraživači i stručnjaci upozoravaju da deepfake i GAN tehnologija može biti izuzetno opasna u pogrešnim rukama. Naime, nekoliko kompanija već godinama razvija softvere koji mogu da obrade velike baze podataka, te veliku količinu fotografija osoba. Tako nedemokratski režimi i države mogu „učitati“ svoje državne baze ličnih isprava građana i za kratko vreme dobiti računarski sistem sposoban za nadzor i kontrolu praktično svih ljudi u državi ili na određenoj teritoriji.

Američki mediji su još pre tri godine otkrili da je jedan od GAN softverskih paketa, razvijan u SAD-u, kasnije prodat kineskoj softverskoj kompaniji. Program je, navodno, kasnije završio u rukama vlasti u kineskoj provinciji Xinjiang, a korišćen je da bi se napravila baza podataka ujgurske nacionalne manjine. Korišćenjem posebnih kamera, postavljenih na javnim mestima, vremenom je ovaj GAN sistem toliko napredovao da je mogao da prepoznaje ne samo lica i identitet ljudi, već i njihova osećanja.

Kao i u slučaju lažnog gradonačelnika Klička, deepfake AI i GAN softver se može iskoristiti za lažiranje i većeg broja snimaka odjednom, poput onih sa linije fronta ili izbeglica u nekom gradu. Većina stručnjaka smatra da iza „lažnog Klička“ najverovatnije stoji ruska obaveštajna služba GRU i njena „filijala“ za cyber napade „Fancy Bear“.

Ovo nije ni prvi put da se za vreme sukoba u Ukrajini koristi deepfake tehnologija. Pre nekoliko meseci svet je obišao snimak predsednika Volodimira Zelenskog koji je, navodno, na svom stolu imao narkotike. Zbog ovoga sve društvene mreže, prvenstveno Facebook, Twitter i Instagram su uvele tzv. nultu toleranciju (zero policy) na sadržaje za koje se sumnja da su kreirani deepfake tehnologijom.

Američke agencije NSA i CISA su još u februaru upozorile da ruska služba GRU putem aplikacija Telegram i TikTok širi veliku količinu lažnih snimaka i propagande iz Ukrajine. Ovakvi snimci se kasnije citiraju i prenose od strane „prijateljskih“ medija širom sveta, pa se u javnosti stvara konfuzija o pravom stanju stvari na terenu.

Izvor: Al Jazeera

Reklama