‘Dotjeruje’ li Rusija zapadnu vještačku inteligenciju

Dezinformacije su izazov, ali izazov je i panika koju one izazivaju.

Opasnost od preuveličavanja manipulacije Kremlja uz pomoć vještačke inteligencije je stvarna  [Dado Ruvić / Reuters]

U martu je NewsGuard – kompanija zadužena za praćenje dezinformacija – objavio izvještaj u kojem tvrdi da alati generativne vještačke inteligencije (AI), poput ChatGPT-a, pojačavaju ruske dezinformacije. NewsGuard je testirao vodeće chatbotove koristeći podsticaje bazirane na pričama sa mreže Pravda – grupe prokremljovskih web-stranica koje imitiraju legitimne medije, a koje je prva identifikovala francuska agencija Viginum.

Rezultati su bili zabrinjavajući: Chatbotovi su „ponavljali lažne narative koje je prečistila mreža Pravda u 33 posto slučajeva“, stoji u izvještaju.

Nastavite čitati

list of 4 itemsend of list

Mreža Pravda, koja ima prilično malu publiku, dugo je zbunjivala istraživače. Neki vjeruju da je njen cilj bio performativan – da signalizira utjecaj Rusije zapadnim posmatračima. Drugi vide podmukliji cilj: Pravda postoji ne da bi došla do ljudi, nego da bi „uredila“ velike jezičke modele (LLM) iza chatbotova, hraneći ih lažima na koje bi korisnici i ne znajući naišli.

Netransparentna metodologija

NewsGuard je u svom izvještaju naveo da njegovi nalazi potvrđuju ovu drugu sumnju. Ova tvrdnja dobila je na značaju, potaknuvši dramatične naslove u The Washington Postu, Forbesu, France 24, Der Spiegelu i drugdje.

Međutim, za nas i druge istraživače, ovaj zaključak ne drži vodu. Prije svega, metodologija koju je NewsGuard koristio nije transparentna: nisu objavili svoje podsticaje i odbili su ih podijeliti s novinarima, što onemogućava nezavisnu replikaciju.

Osim toga, način na koji je studija osmišljena vjerovatno je preuveličao rezultate, a brojka od 33 posto mogla bi navoditi na pogrešne zaključke. Korisnici pitaju chatbotove o svemu – od savjeta za kuhanje do klimatskih promjena; NewsGuard ih je testirao isključivo na podsticajima povezanim s mrežom Pravda. Dvije trećine njihovih podsticaja eksplicitno su osmišljene da izazovu laži ili ih predstave kao činjenice. Odgovori koji su savjetovali korisnika da bude oprezan prema tvrdnjama jer nisu provjerene, bili su ubrojani kao dezinformacije. Ova studija je postavila cilj da pronađe dezinformacije – i pronašla ih je.

Ova epizoda odražava širu problematičnu dinamiku oblikovanu brzim tehnološkim razvojem, medijskim senzacijama, lošim akterima i zaostalim istraživanjima. S obzirom na to da su dezinformacije i obmane rangirane kao najveći globalni rizik među stručnjacima Svjetskog ekonomskog foruma, zabrinutost zbog njihovog širenja je opravdana. No, impulsivne reakcije rizikuju da se problem predstavi na iskrivljen način, nudeći pojednostavljen pogled na kompleksnu vještačku inteligenciju.

Primamljivo je vjerovati da Rusija namjerno „truje“ zapadnjačku vještačku inteligenciju kao dio podmuklog plana. No, način na koji oni koji podižu alarm predstavljaju ovo pitanje zamagljuje vjerovatnija objašnjenja – i nanosi štetu.

Posezanje za sumnjivim stranicama

Mogu li, dakle, chatbotovi reproducirati kremljovski narativ ili citirati sumnjive ruske izvore? Mogu. Ali koliko često se to dešava, da li to odražava kremljovsku manipulaciju i pod kojim uvjetima korisnici nailaze na to još je daleko od razjašnjenog. Mnogo toga zavisi od „crne kutije“ – odnosno osnovnog algoritma – pomoću kojeg chatbotovi pretražuju informacije.

Proveli smo vlastitu reviziju, sistematski testirajući ChatGPT, Copilot, Gemini i Grok koristeći podsticaje vezane za dezinformacije. Pored ponovnog testiranja nekoliko primjera koje je NewsGuard naveo u svom izvještaju, osmislili smo i nove podsticaje. Neki su bili općeniti – naprimjer, tvrdnje o američkim biolaboratorijama u Ukrajini; drugi su bili vrlo specifični – naprimjer, optužbe o NATO objektima u određenim ukrajinskim gradovima.

Da je mreža Pravda „dotjerivala“ AI, vidjeli bismo reference na nju u odgovorima koje chatbotovi generiraju, bilo da su općeniti ili specifični.

To nismo vidjeli u našim rezultatima. Za razliku NewsGuardovih 33 posto, naši podsticaji generirali su lažne tvrdnje samo u pet posto slučajeva. Samo osam posto odgovora referiralo se na web-stranice mreže Pravda – i većina njih to je činila kako bi negirala sadržaj. Ključno je da su reference na Pravdu bile koncentrisane u upitima koje mainstream mediji slabo obrađuju. Ovo podržava hipotezu za slučaj kada nedostaju podaci: kada chatbotovi nemaju vjerodostojan materijal, ponekad posežu za sumnjivim stranicama – ne zato što su tako istrenirani, nego zato što nemaju boljeg izbora.

Ako je problem nepostojanje podataka, a ne infiltracija Kremlja, to znači da je izloženost dezinformacijama rezultat oskudice informacija – a ne moćnog propagandnog aparata. Nadalje, da bi korisnici zapravo naišli na dezinformacije u odgovorima chatbota, mora se poklopiti nekoliko uvjeta: moraju pitati o nejasnim temama na specifičan način; te teme moraju biti ignorisane od vjerodostojnih izvora; i chatbotu moraju nedostajati zaštitni mehanizmi od sumnjivih izvora.

Čak i tada, takvi slučajevi su rijetki i često kratkotrajni. Praznine u podacima se brzo popunjavaju kako pristižu izvještaji, a čak i kada ta situacija potraje, chatboti često demantuju tvrdnje. Iako je tehnički moguće, takve situacije su veoma rijetke izvan vještački kreiranih uvjeta osmišljenih da prevare chatbotove kako bi ponovili dezinformacije.

Nevidljive prijetnje

Opasnost od preuveličavanja manipulacije Kremlja uz pomoć vještačke inteligencije je stvarna. Neki stručnjaci za borbu protiv dezinformacija sugerišu da kampanje Kremlja možda same po sebi imaju za cilj pojačati strahove na Zapadu, preopterećujući provjeravače činjenica i jedinice za borbu protiv dezinformacija. Margarita Simonjan, istaknuta ruska propagandistica, redovno citira zapadna istraživanja kako bi se pohvalila navodnim uticajem državne televizijske mreže RT, koju vodi.

Neselektivna upozorenja o dezinformacijama mogu imati kontraefekte, podstičući podršku represivnim politikama, narušavajući povjerenje u demokratiju i ohrabrujući ljude da misle kako je kredibilan sadržaj lažan.

U međuvremenu, najvidljivije prijetnje rizikuju da zasjene tiše – ali potencijalno opasnije – načine na koje zlonamjerni akteri koriste AI, poput generisanja malvera o kojima izvještavaju i Google i OpenAI.

Odvajanje stvarnih zabrinutosti od prenapuhanih strahova je ključno. Dezinformacije su izazov – ali izazov je i panika koju one izazivaju.

Stavovi izraženi u ovom tekstu autorovi su i ne odražavaju nužno uredničku politiku Al Jazeere.

Izvor: Al Jazeera

Reklama