Deepfake ili kako prestati vjerovati vlastitim očima

Deepfake tehnologija bilježi nevjerovatno brz napredak u zadnjih nekoliko godina koliko postoji, kaže Ibrahimović (EPA)

Kako bi se uvjerili u istinitost nekog događaja, često je bitno da tome svjedočimo svojim očima, da li ličnim prisustvom ili gledanjem snimaka samog događaja. Iako je napretkom tehnologije bilo moguće manipulirati snimcima onog što gledamo, takvi “kozmetički” zahvati su tražili velike resurse i ogromno znanje. Realistični snimci čelnika država i svjetskih tehnoloških giganata kako govore ili čine nezamislive stvari bili su rijetkost.

Stoga su lažne vijesti, nerijetko generirane na “farmama portala” češće bile korištene kako bi se obmanula javnost i širile alarmantne “informacije” uobičajeno praćene fotografijom i tekstom “skandaloznog” sadržaja čiji cilj je imao širiti paniku, mržnju ili jednostavno privući klikove na društvenom mrežama. Za ovako nešto, bile su dovoljne osnove poznavanja rada u programima poput Photoshopa i nedostatak morala i savjesti, a budući da se radi o “stvaranju” lažne uznemirujuće, često opasne vijesti.

Zadnjih godina, napretkom deepfake tehnologije, dolazimo u situaciju da nam čak ni vlastite oči više ne garantiraju da znamo razlučiti da li je istinit događaj koji gledamo na videosnimku koji kruži društvenim mrežama, odnosno da li je neki svjetski moćnik zaista rekao to što je rekao. Napredna tehnologija tako može “oživjeti mrtve”, izvući “snimak iz mladosti”, staviti objavu rata u nečija usta, a sve na način da ono što vidimo i čujemo djeluje zaista autentično.

U poređenju s deepfakeom, lažne vijesti, ili kako ih američki predsjednik Donald Trump naziva fake news, dječija su igrarija.

Deepfake podrazumijeva sintetički medij i mada se najčešće povezuje sa video zapisima, može podrazumijevati i audio, fotografiju ili tekstualni zapis, pojašnjava Belma Ibrahimović, viša naučnica za obradu kompleksnih podataka pri Toptalu.

Upotreba vještačke inteligencije

Iako modificiranje i manipuliranje ovih tipova medija nije ništa novo, ono po čemu se deepfake razlikuje jeste tehnologija kojom se generira, a koja podrazumijeva deep learning, jako moćnu oblast vještačke inteligencije, pojašnjava, te dodaje da je ova tehnologija omogućila nevjerovatno realistične lažne digitalne zapise.

“Deep learning dio deepfake tehnologije se najčešće zasniva na posebnoj vrsti neuronskih mreža, takozvane GAN mreže, koje se sastoje od dva osnovna dijela: generatora – kreativnog dijela mreže čiji je zadatak da kreira medij i diskriminatora – intelektualnog dijela mreže koji je naučio kako izgleda stvarni medij i ima za zadatak da pokuša detektovati da li je medij koji je generator kreirao lažan ili stvaran. U onom momentu kada više ne može prepoznati razliku, generator je naučio svoj posao dovoljno dobro da zavara ne samo svog diskriminatora nego i nas ljude”, kaže Ibrahimović.

Napomena o autorskim pravima

Preuzimanje dijela (maksimalno trećine) ili kompletnog teksta moguće je u skladu sa članom 14 Kodeksa za štampu i online medija Bosne i Hercegovine: “Značajna upotreba ili reprodukcija cijelog materijala zaštićenog autorskim pravima zahtijeva izričitu dozvolu nositelja autorskog prava, osim ako takva dozvola nije navedena u samom materijalu.”

Ako neki drugi medij želi preuzeti dio autorskog teksta, dužan je kao izvor navesti Al Jazeeru Balkans i objaviti link pod kojim je objavljen naš tekst.

Ako neki drugi medij želi preuzeti kompletan autorski tekst, to može učiniti 24 sata nakon njegove objave, uz dozvolu uredništva portala Al Jazeere Balkans, te je dužan objaviti link pod kojim je objavljen naš tekst.

Ono što je posebno zabrinjavajuće kod ove tehnologije jeste da ne treba veliko znanje da bi se njene mogućnosti iskoristile.

Kako kaže stručnjakinja za obradu kompleksnih podataka, danas postoji jako puno web aplikacija i aplikacija za pametne uređaje pomoću kojih svako od nas može, uz samo nekoliko klikova, postati glavna uloga u svom omiljenom filmu.

“No, iako ovako generisani video zapisi mogu biti jako realistični, najvjerovatnije je da neće biti na nivou deepfakea koji kruže digitalnim svijetom sa javnim ličnostima kao glavnim akterima. Razlog tome je što su ovakve tehnologije ‘gladne za podacima’ i daju bolje rezultate kada imaju više digitalnih zapisa iz kojih mogu naučiti oponašati osobu. Javne ličnosti su stoga idealan izbor za deepfake aplikacije zbog velike količine lahko dostupnih digitalnih zapisa”.

Sporna upotreba

Ona dodaje da su aplikacije ovog tipa jako popularne jer mogu biti veliki izvor zabave ali iste vrlo često podrazumijevaju i određene nivoe narušavanja privatnosti. Najčešći oblik se ogleda u činjenici da će fotografija koju podijelite sa aplikacijom napustiti vaš uređaj, živjeti u tuđem dijelu digitalnog svijeta i možda biti korištena za unapređenje upravo dotičnog deepfakea ili nekog drugog deep learning sistema, navodi stručnjakinja Toptala.

“Zbog toga je prije korištenja neke od ovih aplikacija potrebno u najmanju ruku povesti računa o tome koja je to cijena ‘besplatne’ usluge i zabave koju pružaju i da li ste istu spremni platiti”, podsjeća Ibrahimović.

Ono što je dodatni razlog za brigu jeste da se razvoj ove tehnologije tek praktički zahuktava.

Kako kaže Ibrahimović, deepfake tehnologija bilježi nevjerovatno brz napredak u zadnjih nekoliko godina koliko postoji, te dodaje da vjeruje da će se ovaj trend nastaviti do momenta kada će ljudima biti skoro nemoguće razlikovati stvarni od lažnog medija i informacije koju prenosi.

Razlog tome je što postoje dva jako aktivna smjera istraživanja u oblasti deepfake tehnologije: generiranje i detekcija deepfakea.

“Iako drugi navedeni smjer bilježi nevjerovatne uspjehe, zasnivajući se takođe na upotrebi deep learninga, upravo ova sfera istraživanja daje alat za unapređenje tehnologije za generisanje deepfakea, ukazivanjem na slabosti koje otkrivaju da je riječ o lažnom mediju”, kaže Ibrahimović.

Lažni snimci

Na društvenim mrežama je sve više deepfake sadržaja, na kojim se nerijetko prikazuju poznate ličnosti kako rade stvari koje se nikad nisu desile. Stoga mnogi smatraju deepfake mnogo većim i opasnijim problemom od sveprisutnih lažnih vijesti.

Đorđe Obradović, doktor komunikacijskih nauka i profesor na Univerzitetu u Dubrovniku, govori da većina pratitelja poznate ličnosti prati zbog zabave pa nekima od njih mogu promaknuti i izmišljene objave o njima ili ih i sami podijele na društvenim mrežama ne provjeravajući istinitost, a njima su presudni kriteriji zanimljivost i zabavnost sadržaja.

Pratitelji koji ozbiljno prate pojedine ličnosti i sami sebe smatraju ekspertima pa im to postane važan dio života i samopotvrđivanja, uglavnom kod virtualnih “prijatelja”, lakše prepoznaju lažne objave i u pravilu obavještavaju članove grupa na društvenim mrežama da su te objave lažne i da taj izvor nije vjerodostojan, dodaje. Time se njihov ugled među ljudima sličnih interesa povećava, što im i jest jedan od ciljeva djelovanja na društvenim mrežama.

“Kad se državnicima ili ličnostima iz različitih područja djelovanja s velikim utjecajem u međunarodnim okvirima podmetnu lažne objave (deepfake), onda to može biti i opasno zbog posljedica koje se povećavaju komentiranjem i daljim širenjem takvih objava. Na primjer, pojedine Trumpove izjave koje nikad nije dao, izazvale su zgražanje i otvoreno neprijateljstvo u islamskim državama, a oduševljenje kod ekstremnih skupina bliskih rasističkim i nacističkim ideologijama. S druge strane, pojedine Trumpove stvarne izjave, koje šire njegovi obožavatelji i mrzitelji, ponekad nisu ozbiljno shvaćene jer primatelji sumnjaju u njihovu vjerodostojnost”, navodi profesor Obradović.

Ova tehnologija stoga nerijetko dovodi u pitanje vjerodostojnost onog što gledamo, a kako je razvoj društvenih mreža omogućio ogroman, trenutačan protok informacija, što se sve češće koristiti i u novinarstvu, jasno je da se stvara zamka u koju i najiskusniji mogu upasti.

Generiranje sadržaja

Tu se posebno javljaju problemi pri mobilnom novinarstvu i rastućem trendu kratkih videa, koji su najčešći izvor vijesti za mlađe generacije.

“Novinarstvo samo sebe srozava prenošenjem sadržaja s društvenih mreža koji nemaju nikakvu informativnu vrijednost. I suvremeno novinarstvo, čak i mobilno koje zahtijeva iznimnu brzinu postavljanja sadržaja, mora paziti na vjerodostojnost izvora i provjeravanje činjenica. Novinarstvo se za mjesto u suvremenom društvu mora izboriti informativnošću i vjerodostojnošću, a ne prenošenjem zabavnih sadržaja bez provjeravanja izvora do kojih pratitelji i tako mogu doći na društvenim mrežama”, smatra doktor komunikacijskih nauka.

Javna je tajna da su određene države veliki generator lažnih vijesti, tako da je očekivano da će deepfake naći veliku primjenu i u propagandnim mašinerijama velikih, ali i malih sila, koje bi modificirane sadržaje mogle plasirati kako bi ostvarile svoje ciljeve.

Samo o interesima i pristupu ovisi mišljenje koje države plasiraju lažne vijesti i deepfake sadržaje, kaže profesor Obradović.

“Države su vođene vlastitim interesima i masovni mediji i društvene mreže su im jedni od kanala za postizanje vlastitih ciljeva pa ih tako i koriste. Nažalost, spremne su i na plasiranje deepfake sadržaja kako bi lakše ostvarile svoje ciljeve. Isto rade i državni savezi, međunarodne organizacije i multinacionalne korporacije. Odgovornost je i na svakom pojedincu da kad mu je nešto važno dobro provjeri vjerodostojnost izvora i pronađe druge izvore koji obrađuju istu temu. Staro, prastaro novinarsko pravilo ‘neka se čuje i druga strana’ danas je važnije nego ikad i pojedinci, neovisno koje profesije bili, bi ga morali primjenjivati kad god traže njima važan sadržaj u medijima ili na društvenim mrežama”, ističe.

Koristi tehnologije

Ipak, dodaje Ibrahimović, nije sve crno kada je primjena deepfakea u pitanju.

Napredovanje ove tehnologije za sebe veže uglavnom negativne kritike zbog potencijalnih zloupotreba i sudjelovanja u kreiranju svijeta u kome se neće znati šta je istina a šta laž, ističe naučnica za obradu kompleksnih podataka.

“Iako ovakvi argumenti i brige nisu neutemeljeni, činjenica je da se velika moć ove tehnologije može iskoristiti i u pozitivne svrhe, od vraćanja glasa osobama koje su ga izgubile zbog zdravstvenih razloga, napretka u drugim sferama medicine do brojnih primjena u edukacijske svrhe. Kao i sa mnogim drugim naprednim tehnologijama, na nama je kako ćemo iskoristiti deepfake tehnologiju a ono što svaki pojedinac može uraditi jeste da iskoristi sposobnost koju mašine još uvijek nemaju – da kritičkim razmišljanjem sagleda svaku informaciju na koju naiđe, naročito u digitalnom svijetu”.

Izvor: Al Jazeera


Povezane

Više iz rubrike TEME
POPULARNO