Vještačka inteligencija postala pouzdan partner prevarantima

Prevaranti su već počeli koristiti gotovo neograničene mogućnosti vještačke inteligencije kako bi došli do novca hiljada ljudi.

U samo jednom primjeru vještačka inteligencija je dovela do prevare vrijedne 25 miliona dolara (Dado Ruvić/ Reuters - Illustration)

Otkad su se ljudi počeli udruživati u prve primitivne zajednice, uvijek su postojali oni koji su bili spremni prevariti druge za vlastitu korist. Kako su se te zajednice širile u organizirana naselja, gradove i u civilizaciju kakvu znamo danas, tako se širio i obim i načini na koje su prevare izvođene.

Vjerovatno je malo ko kao prevaranti prihvatao napredak tehnologija, pa zbog toga ne čudi da je ovo informacijsko doba u kojem živimo zapravo “zlatno doba” za sve one koji bez ikakvog obzira spremno uzimaju i posljednji dinar od naivnih žrtava, a posebno su popularna meta stariji građani, koji nisu odrasli uz računare i internet.

Tako i nije iznenađenje da stručnjaci upozoravaju da su prevaranti objeručke prihvatili vještačku inteligenciju i ogromne mogućnosti koje ta tehnologija pruža kako bi uz što manje truda došli do što veće nagrade.

Alati vještačke inteligencije nesumnjivo unapređuju kvalitet života modernog čovjeka, pomažući u medicini da se brže otkriju bolesti, u farmaciji da se razvijaju učinkovitiji lijekovi, u saobraćaju da se poveća sigurnost transporta uz smanjenje gužvi, ali isto tako već svjedočimo mračnoj strani njihovog korištenja, gdje se koriste za lažiranje glasova, videozapisa, stvaranje lažnih web stranica i drugih sadržaja za prevare. Za mnoge, najgore tek dolazi.

Neograničene mogućnosti

Kathy Stokes, direktorica programa za prevenciju prevara neprofitne organizacije AARP, smatra da smo na početku “industrijske revolucije za kriminalce koji se bave prevarama”. Prema njenim riječima, kriminalci već iskorištavaju neke od “neograničenih mogućnosti” koje nudi AI.

Dosta prevara koje su se tradicionalno koristile, poput lažnog predstavljanja, lažnih informacija i slično, i dalje se koriste. Razlika je u tome što vještačka inteligencija, prije svega generativna, sposobna da stvara tekst, riječi, snimke i fotografije na osnovu nekoliko jednostavnih uputa, sve te prevare diže na nivo u kojem je teško da ne vjerujemo svojim očima i ušima.

Kako je naveo nezavisni novinar Louis DeNicola u članku objavljenom na portalu Experian, postoji više načina na koji se AI koristi za koristoljublje, a jedna od metoda su prevare kloniranjem glasova članova porodice, prijatelja i poslovnih saradnika. Sintetiziranje glasova je već stara praksa za prevare, ali zahvaljujući generativnoj vještačkoj inteligenciji, varanja su dignuta na viši nivo.

Neki AI alati mogu uzeti kratke videozapise određenih osoba, bez obzira da li se radi o čistim audiosadržajima ili iz videosnimaka, te stvoriti, odnosno klonirati glas te osobe. S obzirom da danas veliki broj ljudi na društvenim mrežama bez problema objavljuje snimke u kojim govore, do uzorka za prevaru je vrlo lako doći. Ako se radi o javnoj osobi, onda je posao još lakši, jer postoji veća baza riječi koje se mogu koristiti. Prethodno, za ovakve prevare je trebao priličan fond snimljenih riječi i fraza, te dosta znanja i posebnog softvera kako bi se klonirao glas, a i to nije bilo baš savršeno. Danas, zahvaljujući AI alatima, čak i laici mogu uz samo male uzorke napraviti glasovne poruke kojim se poručuje sve što žele.

Kloniranje glasa

Stručnjaci navode da, primjera radi, prevaranti mogu iskoristiti AI da naprave glasovne poruke poslane nekim od modernih alata za komunikaciju, poput WhatsAppa, Vibera i drugih, kojim se od porodice ili prijatelja traži da im uplate novčana sredstva jer su na putu ostali bez kartica i novca. Ono što je dodatni problem je što ovi AI alati mogu gotovo trenutno generirati audio poruke te žrtva ima osjećaj da zaista razmjenjuje glasovne poruke sa bliskom osobom.

Napredniji korak u ovakvim prevarama je korištenje takozvanih deepfake snimaka, gdje se praktički lice jedne osobe može dodati na tijela potpuno drugih ljudi, tako da “nama poznate” osobe izvode radnje za koje smo sto posto uvjereni da su se desile, iako u stvarnosti do toga nije došlo.

Najbolji primjer koliko je odmakla ova tehnologija i koji su njeni kapaciteti u realnom vremenu jeste ovogodišnji slučaj iz Hong Konga, gdje su prevaranti organizirali videokonferenciju sa radnikom iz finansija, koji je, zbog upotrebe AI-ja i deepfake tehnologije, mislio da razgovara sa finansijskim direktorom i drugim visokorangiranim članovima multinacionalne kompanije, koji su mu naredili da prebaci gotovo 25 miliona dolara na njihove račune. Kako je videovezom razgovarao sa “svojim šefom” i njegovim bliskim saradicima, nije bilo razloga da ne izvrši njihove zapovijedi.

Ovaj incident ne samo da prikazuje rastuću sofisticiranost digitalnih prevara, već i skreće pažnju na kritične ranjivosti koje postoje u aktuelnim procesima provjere digitalnog identiteta.

Čak se ne mora raditi ni o multinacionalnim kompanijama, da bi se ovakve tehnologije koristile.

Lažne romanse

Stručnjaci posebno skreću pažnju na lažne romanse koje mogu itekako skupo koštati, što pokazuje primjer osobe iz Chicaga koja je izgubila 60.000 dolara ulažući u kriptovalute na nagovor “simpatije” s kojom je dugo održavao online romansu putem, kako su kasnije vlasti utvrdile, deepfake snimaka.

Isto tako, moguće je napraviti “snimak” poznate osobe koja poziva javnost da se uključi u neku humanitarnu akciju i slično, a gdje će se novac “slijevati” u džepove prevaranata.

Također, ova tehnologija ili tehnologija manipulacije fotografija se koristi i za “seks ucjene”, gdje se na osnovu “mora” fotografija koje objavimo na internetu pravi fotomontaža koja prikazuje osjetljive scene, poput seksa sa maloljetnicima ili čak i odraslim osobama, gdje izgleda da žrtva vara svog partnera. U takvim slučajevima, teško je uvjeriti druge da fotografije ili snimci nisu istiniti, a samo oni koji imaju specifično tjelesno obilježje koje se uobičajeno ne vidi na javno dostupnim snimcima i fotografijama, poput skrivene tetovaže i slično, mogu da se “opravdaju”.

Američki Federalni istražni biro (FBI) posebno upozorava na ovaj vid manipulacija i ucjena.

Pored ovih audiovizuelnih metoda, prevaranti mogu koristiti AI i za stvaranje takozvanih personaliziranih phishing i spam elektronskih poruka kako bi uvjerili žrtvu da su mailovi i stranice na koje vode zaista stvarni i legitimni.

Prevare putem elektronske pošte su već “stara vijest”, ali zahvaljujući mogućnostima vještačke inteligencije, koja može prikupiti “more” ličnih podataka, pristigla e-pošta prilagođena pojedincu može djelovati izuzetno uvjerljivo, a nije rijetkost da se čak i koriste lični podaci koji su ko zna gdje ukradeni. I ovom tehnologijom, prevaranti mogu napasti hiljade ljudi istovremeno.

Supermoć AI-ja

Sve navedeno je već viđeno, ali je razlika u odnosu na prethodne godine i decenije u tome što je prije trebalo veliko znanje, veliki resursi, posebni programi i dosta vremena za provedbu samo dijela ovih prevara. Vještačka inteligencija je to uveliko promijenila.

Neprofitna organizacija AARP je prenijela riječi Eyala Benishtija, izvršnog direktora i osnivača kompanije za cyber sigurnost Ironscales, koji je rekao AI može skratiti proces pokretanja gotovo svake prijevare.

“Supermoć generativne vještačke inteligencije je u tome što joj zapravo možete dati cilj, na primjer, recite joj: ‘Pronađi mi 10 različitih ideja za krađu identiteta kako bih mogao namamiti i prevariti osobu X.'”

A najstrašnije je što svako može koristiti ovu tehnologiju.

“To je kao da preuzimate bilo koju drugu aplikaciju”, kazao je Alex Hamerstone, analitičar u TrustedSecu, kompaniji za savjetovanje o informatičkoj sigurnosti.

Ako, primjera radi, snimite razgovor koji vodite s nekim, možete ga unijeti u softver, utipkati šta želite da ta osoba kaže i imali biste glas te osobe kako govori upravo te riječi, pojasnio je. Ako osoba koja sluša postavlja pitanja, vještačka inteligencija ima potencijal da stvori odgovore glasom koji bi slušatelju imali smisla.

“I teško je razlikovati šta je stvarno, a šta je lažno”, kazao je Hamerstone.

Neophodna posebna pažnja

Danas kad je vrlo lako biti žrtva prevara, stručnjaci preporučuju posebnu pažnju. Deepfake snimci i klonirani glasovi su toliko dobri da je gotovo nemoguće uočiti da nisu istiniti, pa se preporučuje da se posebna pažnja posveti ako snimci i videa dolaze s nepoznatih brojeva ili email adresa, odnosno profila na društvenim mrežama.

Osim toga, poželjno je ne podleći pritisku, s obzirom da prevaranti često pokušavaju uvjeriti potencijalnu žrtvu da moraju djelovati odmah.

Mogu reći da će, ako potencijalna žrtva bude odugovlačila, biti uhapšeni, platiti kaznu, izgubiti neku nagradu ili propustiti sjajnu priliku. Kad stvari budu djelovale hitnim, bitno je stati, duboko udahnuti i pokušati zadržati mirnoću, navodi DeNicola. Kako kaže, u većini legalnih situacija, sasvim je uredu napraviti pauzu od nekoliko sati, pa čak i dana, prije nego se poduzme određena akcija.

Također se preporučuje da se zaustavi razmjena poruka, poziva i videopoziva, pa da se osoba s kojom ste razgovarali, ili organizacija, kontaktira putem pouzdanih kanala.

Legitimne vladine agencije, kompanije i prijatelji neće imati ništa protiv ako se prekine veza i ponovo ih kontaktirate. Ako ništa drugo, možete se pretvarati da je telefonska ili internet veza prekinuta. Potražite podatke za kontakt organizacije ili osobe iz drugog izvora, a zatim se pokušajte ponovno povezati da vidite jesu li to zaista oni, navode stručnjaci.

Također, preporučuje se da se ne otvaraju linkovi pristigli u porukama i mailovima za koje niste apsolutno uvjereni da se radi o legitimnim pošiljateljima.

Pored navedenog, preporučuje se korištenje jedinstvenih šifri za različite naloge i servise, uz korištenje višestepenih provjera autentičnosti.

A u slučaju da mislite da ste bili žrtva prevare, obavezno je kontaktirati nadležne, kako IT stručnjake u svojoj kompaniji, ako je ugrožena firma, odnosno policijske agencije ako ste meta napada.

Izvor: Al Jazeera

Reklama