Vještačka inteligencija promijenila ‘pravila igre’ i na američkim izborima

Stručnjaci su se plašili AI-ja na izborima, ali su prevladale tradicionalne metode dezinformiranja poput tvrdnji na društvenim mrežama.

Generativna vještačka inteligencija pogoršala postojeće političke podjele [Rob Lever / AFP]

Nekoliko dana nakon što su glasači u državi New Hampshire primili poziv s vještački generiranim glasom koji je sličio glasu predsjednika Josepha Bidena, Savezna komisija za komunikacije zabranila je korištenje AI-glasova u pozivima.

Bio je to početak žarišta. Američki Izbori 2024. bili su prvi koji će se odvijati usred širokog javnog pristupa generatorima vještačke inteligencije, koji ljudima omogućuju stvaranje slika, zvuka i videa – ponekad u zle svrhe.

Institucije su požurile ograničiti ta djela koja omogućuje vještačka inteligencija.

Šesnaest država donijelo je zakone o korištenju vještačke inteligencije u izborima i kampanjama. Mnoge od tih država zahtijevale su odricanje od odgovornosti u sintetičkim medijima objavljenim neposredno prije izbora. Komisija za pomoć pri izborima, savezna agencija koja podržava izborne administratore, objavila je “AI Toolkit” sa savjetima koje bi izborni zvaničnici mogli koristiti za komuniciranje o izborima u doba izmišljenih informacija. Države su lansirale vlastite stranice kako bi biračima pomogle u prepoznavanju sadržaja generiranog vještačkom inteligencijom.

Glavna uloga za viralne dezinformacije

Stručnjaci su upozorili na potencijal vještačke inteligencije da stvori deepfakes zbog kojih se činilo da kandidati govore ili rade stvari koje nisu. Stručnjaci su rekli da bi utjecaj vještačke inteligencije mogao naškoditi SAD-u kako na domaćem planu – zavaravajući birače i utječući na njihovo donošenje odluka ili, pak, odvraćajući ih od glasanja – tako i u inozemstvu, pogodujući inozemnim protivnicima.

No, očekivana lavina dezinformacija stvorenih vještačkom inteligencijom nikada se nije ostvarila. Kako je dan izbora dolazio i prolazio, viralne dezinformacije igrale su glavnu ulogu, dovodeći u zabludu prebrojavanje glasova, glasačke listiće upućene poštom i glasačke aparate. Međutim, ta se aktivnost uglavnom oslanjala na stare, poznate tehnike, uključujući tekstualne tvrdnje na društvenim mrežama i videosnimke ili fotografije izvan konteksta.

“Pokazalo se da upotreba generativne vještačke inteligencije nije bila potrebna za zavaravanje birača”, rekao je Paul Barrett, zamjenik direktora Centra za poslovna i ljudska prava Stern Univerziteta u New Yorku. “Ovo nisu bili izbori vještačke inteligencije.”

Daniel Schiff, asistent profesora tehnološke politike na Univerzitetu Purdue, rekao je da nije bilo “masivne jedanaestosatne kampanje” koja bi obmanjivala birače o biračkim mjestima i utjecala na izlaznost.

“Ova vrsta dezinformacija bila je manjeg obima i malo je vjerovatno da je bila odlučujući faktor, barem na predsjedničkim izborima”, rekao je.

Tvrdnje generirane vještačkom inteligencijom koje su dobile najviše pažnje podržavale su postojeće narative, a ne izmišljale nove tvrdnje kako bi zavarale ljude, kažu stručnjaci. Naprimjer, nakon što su bivši predsjednik Donald Trump i njegov potpredsjednički kandidat J. D. Vance lažno tvrdili da Haićani jedu kućne ljubimce u Springfieldu, slike vještačke inteligencije i memovi koji prikazuju zlostavljanje životinja preplavili su internet.

U međuvremenu su stručnjaci za tehnologiju i javnu politiku rekli da su mjere zaštite i zakonodavstvo smanjili potencijal vještačke inteligencije za stvaranje štetnog političkog utjecaja.

‘Tradicionalne metode učinkovitije’

Schiff je rekao da je potencijalna šteta vještačke inteligencije za izbore probudila “hitno potrebnu energiju” usmjerenu na pronalaženje rješenja.

“Vjerujem da je značajna pažnja javnih zagovornika, vladinih aktera, istraživača i šire javnosti bila važna”, rekao je Schiff.

Meta, koja posjeduje Facebook, Instagram i Threads, zahtijevala je od oglašivača da otkriju korištenje vještačke inteligencije u svim oglasima o politici ili društvenim temama. TikTok je primijenio mehanizam za automatsko označavanje nekih sadržaja generiranih AI-jem.

OpenAI, kompanija koja stoji iza aplikacija ChatGPT i DALL-E, zabranila je korištenje svojih usluga za političke kampanje i spriječila korisnike da generiraju slike stvarnih ljudi.

Siwei Lyu, profesor informatike i inženjerstva na Univerzitetu u Buffalu i stručnjak za forenziku digitalnih medija, rekao je da je moć vještačke inteligencije da utječe na izbore, također, izblijedjela, jer su postojali drugi načini za postizanje tog utjecaja.

“Na ovim izborima utjecaj AI-ja mogao bi se činiti prigušenim jer su tradicionalne metode i dalje bile učinkovitije, a na platformama koje se temelje na društvenim mrežama poput Instagrama, računi s velikim brojem pratilaca manje koriste vjetačku inteligenciju”, rekao je Herbert Chang, pomoćnik profesora kvantitativnih društvenih nauka na Dartmouth Collegeu.

Chang je bio koautor studije koja je otkrila da slike generirane vještačkom inteligencijom “generiraju manje viralnosti od tradicionalnih memova”, ali da memovi stvoreni AI-jem, također, stvaraju viralnost.

Istaknute ličnosti s velikim brojem pratilaca lako šire poruke bez potrebe za sadržajem koji stvara vještačka inteligencija.

‘Jeftini lažnjaci’

Trump je, naprimjer, ponovno govorio laži u istupima, intervjuima i na društvenim mrežama da se ilegalni imigranti dovode u SAD kako bi glasali iako su slučajevi glasanja nedržavljana izuzetno rijetki, jer je za glasanje na saveznim izborima potrebno državljanstvo.

Anketa je pokazala da se Trumpova ponovljena tvrdnja isplatila – više od polovine Amerikanaca u oktobru je reklo da su zabrinuti zbog glasanja nedržavljana na izborima 2024.

PolitiFactove provjere činjenica i priča o dezinformacijama vezanim uz izbore izdvojile su neke slike i videozapise pri čijem je stvaranju korištena vještačka inteligencija, ali mnogi dijelovi viralnih medija bili su ono što stručnjaci nazivaju “jeftini lažnjaci” – autentični sadržaj koji je uređivan bez vještačke inteligencije.

U drugim slučajevima, političari su preokrenuli scenario – okrivljujući ili omalovažavajući vještačku inteligenciju umjesto da je koriste. Trump je, naprimjer, lažno tvrdio da je montaža njegovih gafova koju je objavio Lincoln Project generirana vještačkom inteligencijom te je rekao da je gomila pristalica njegove protivkandidatkinje na izborima Kamale Harris generirana vještačkom inteligencijom.

Nakon što je CNN objavio izvještaj da je zamjenik guvernera Sjeverne Karoline Mark Robinson dao uvredljive komentare na porno forumu, Robinson je ustvrdio da je riječ o vještačkoj inteligenciji. Stručnjak je za Greensboro, WFMY-TV iz Sjeverne Karoline, rekao ono za što je Robinson tvrdio da bi bilo “gotovo nemoguće”.

Lažni poziv za 20 minuta i jedan dolar

Vlasti su otkrile da je ulični mađioničar iz New Orleansa kreirao lažni Bidenov robotski poziv, u kojem se mogao čuti predsjednik kako odvraća ljude od glasanja na predizborima u New Hampshireu. Mađioničar je rekao da mu je trebalo samo 20 minuta i jedan dolar da napravi lažni zvuk.

Politički savjetnik koji je angažirao mađioničara da obavi poziv suočava se sa kaznom od šest miliona dolara i 13 krivičnih prijava.

Bio je to važan trenutak, dijelom i zato što se više nije ponovio.

Vještačka inteligencija nije pomogla širenju dva glavna dezinformacijska narativa u sedmicama koje su prethodile izbornom danu – izmišljene tvrdnje o jedenju kućnih ljubimaca i neistine o naporima Savezne agencije za upravljanje hitnim situacijama nakon uragana Milton i Helene, rekao je Bruce Schneier, pomoćni predavač javne politike na Harvardskoj školi Kennedy.

“Svjedočili smo korištenju deepfakesa za naizgled prilično učinkovito raspirivanje stranačkog animusa, pomažući u utvrđivanju ili učvršćivanju određenih pogrešnih ili lažnih pogleda na kandidate”, rekao je Daniel Schiff.

Radio je sa Kaylyn Schiff, docenticom političkih nauka na Purdueu i Christinom Walker, doktoranticom Purduea, na stvaranju baze podataka lažnih političkih sadržaja.

Većina pojava deepfakes stvorena je kao satira, pokazuju podaci. Iza toga su stajali deepfakesi koji su namjeravali naštetiti nečijoj reputaciji. Treći najčešći deepfake stvoren je za zabavu.

Deepfakes koji su kritizirali ili dovodili ljude u zabludu o kandidatima bili su “proširenje tradicionalnih američkih političkih narativa”, rekao je Daniel Schiff, poput onih koji Harris prikazuju kao komunistu ili klauna, ili Trumpa kao fašistu ili kriminalca.

Chang se složio sa Schiffom, rekavši da je generativna vještačka inteligencija “pogoršala postojeće političke podjele, ne nužno s namjerom da dovede u zabludu”.

Glumci na videosnimcima

Istraživači su 2023. upozorili da bi vještačka inteligencija mogla pomoći stranim akterima da brže i jeftinije provode operacije utjecaja. Centar za inozemni maligni utjecaj – koji procjenjuje aktivnosti stranog utjecaja usmjerene na SAD – krajem septembra je objavio da AI nije “revolucionizirao” te napore.

Kako bi ugrozili izbore u SAD-u, naveo je Centar, strani akteri bi morali savladati ograničenja alata vještačke inteligencije, izbjeći otkrivanje i “strateški ciljati i širiti takav sadržaj”.

Obavještajne agencije, uključujući Ured direktora Nacionalne obavještajne službe, FBI i Agenciju za cyber-sigurnost i sigurnost infrastrukture, naglasile su operacije stranog utjecaja, ali u tim naporima u namještenim videozapisima češće su angažirani glumci.

Videosnimak prikazuje ženu koja je tvrdila da ju je Harris udarila i povrijedila u nesreći nakon koje je pobjegla. Narativ videa bio je “potpuno izmišljen”, ali ne i vještačka inteligencija. Analitičari su video povezali s ruskom mrežom koju su nazvali Storm-1516, koja je koristila sličnu taktiku u videosnimcima kojima se nastojalo potkopati izborno povjerenje u Pennsylvaniji i Georgiji.

Zaštitne mjere platformi i državno zakonodavstvo vjerovatno su pomogli u suzbijanju “najgoreg ponašanja”.

Društvene mreže i platforme vještačke inteligencije nastojale su otežati korištenje svojih alata za širenje štetnog političkog sadržaja, dodajući vodene žigove, oznake i provjere činjenica.

Strategija se isplatila

Meta AI i OpenAI rekli su da su njihovi alati odbili stotine hiljada zahtjeva za generiranje AI slika Trumpa, Bidena, Harris, Vancea i demokratskog kandidata za potpredsjednika Minnesote Tima Walza. U izvještaju od 3. decembra o izborima 2024. predsjednik Mete za globalna pitanja Nick Clegg rekao je: “Ocjene sadržaja vještačke inteligencije, koji se odnosi na izbore, politiku i društvene teme, predstavljaju manje od jedan posto svih provjerenih dezinformacija”.

Ipak, bilo je nedostataka.

The Washington Post je otkrio da je ChatGPT i dalje sastavljao poruke, ciljajući na određene glasače, kada se to zatraži. PolitiFact je, također, otkrio da je Meta AI lako proizvodila slike koje su mogle podržati narativ da Haićani jedu kućne ljubimce.

Daniel Schiff rekao je da je pred platformama dug put kako se AI tehnologija poboljšava. No, barem u 2024. činilo se da su se mjere opreza koje su preduzete i zakonodavni napori država isplatili.

“Mislim da su sve strategije, poput otkrivanja lažnih sadržaja i nastojanja za podizanje svijesti javnosti, kao i direktne zabrane, bile važne”, rekao je Schiff.

Izvor: Al Jazeera

Reklama