Vještačka inteligencija omogućava svakom da bude haker

Stručnjaci iz Centra za nacionalnu sigurnost Velike Britanije upozoravaju da bi AI alati ne samo mogli utjecati na cyber sigurnost, već da će sasvim sigurno te hakerske napade unaprijediti.

Vještačka inteligencija će i osobama bez velikog tehničkog znanja omogućiti da izvode hakerske napade (Reuters - Ilustracija)

Vještačka inteligencija iz dana u dan postaje neizostavan alat koji u mnogim granama olakšava rad ljudima, poboljšavajući život širom planete, te omogućava čovječanstvu da napreduje kao nikad do sada.

Ali, istovremeno, ova tehnologija nosi i brojne izazove, koji mogu dovesti do ozbiljnih posljedica. Mnogi upozoravaju da bi AI mogao izazvati veliku štetu, prije svega zbog nepažnje i loše “obuke” koja joj omogućava da “donosi zaključke i odluke”, ali isto tako ovaj alat može biti opasno sredstvo u rukama zlonamjernih osoba.

Tako su stručnjaci iz Centra za nacionalnu sigurnost Velike Britanije (NCSC) upozorili da bi AI alati ne samo mogli utjecati na cyber sigurnost, već da će skoro sasvim sigurno te hakerske napade unaprijediti. Stručnjaci britanske agencije su istakli da će se u narednim godinama upotreba AI u hakerskim napadima samo povećati i da će omogućiti većem broju ljudi da takve napade izvode.

Zoran Živković, stručnjak za savremene IKT sisteme i informatičku sigurnost te predsjednik Društva za informacionu bezbjednost Srbije, napominje da se vještačka inteligencija već neko vrijeme koristi u hakerskim napadima, gdje je prvobitna upotreba AI alata u hakerskim napadima prvenstveno bila u napadima iza kojih su stajale države, dok su kasnije pojedine alate bazirane na AI-u počeli koristiti i cyber kriminalci. Navodi da su ove alate u malom obimu i s lokalnim dometom koristili i koriste pojedinci, ali da vještačku inteligenciju u hakerskim napadima prije svega koriste moćne kriminalne organizacije koje broje veliki broj stručnjaka.

AI za hakiranje

Prema Živkovićevim riječima, AI alatima se prije svega analiziraju slabe tačke sistema koji se želi napasti. Kao primjer navodi da takozvani phishing napadi više nemaju boljke lošeg prijevoda zahvaljujući upravo vještačkoj inteligenciji.

Kako kaže, AI znatno unapređuje moć napadača i skraćuje vrijeme potrebno za izvršenje uspješnog napada, a koristi se za sve vrste napada, uključujući i ransomware napade posljednje generacije.

Prema izvještaju kompanije Corvus Insurance, 2023. godina je zabilježila porast od zapanjujućih 68 posto ransomware napada u odnosu na godinu dana ranije, što pokazuje koliko su ovi hakerski napadi sve omiljenija metoda zlonamjernih stručnjaka. Prema procjenama, dnevno se širom svijeta dogodi 1,7 miliona ransomeware napada, odnosno jedan napad svakih 19 sekundi, a očekuje se da će žrtve napada ovakve prakse koštati 265 milijardi dolara godišnje do 2031. godine.

Stručnjaci iz Centra za nacionalnu sigurnost Velike Britanije kažu da hakeri AI koriste za različite svrhe, a procjenjuju da će se situacija u naredne dvije godine pogoršati.

Ono što predstavlja dodatni problem jeste što će ova tehnologija “dati ključ” za veliki broj “brava” velikom broju ljudi, pa čak i onim koji nisu baš vični hakerskim metodama.

Minimalno znanje

Živković ističe da primjena vještačke inteligencije prije svega znači lakoću korištenja vrlo moćnih alata. To u praksi znači, pojašnjava, da je za primjenu AI za hakerske napade potrebno vrlo malo znanja, odnosno znanja koje je na nivou onog potrebnog za korištenje standardnih aplikacija na računaru i telefonu.

Time se pruža pristup moćnim alatima daleko većem broju osoba nego što je to do sada bilo uobičajeno, uključujući i vrlo mlade osobe.

“Veliki broj osoba bez sazrelog osećanja odgovornosti i bez osećaja za razmere štete znači veliki broj potencijalnih napada sa velikim procentom napada samo radi dokazivanja ili prosto zabave”, navodi Živković.

U izvještaju NCSC-a se takav stav potvrđuje, gdje se navodi da će vještačka inteligencija omogućiti da i oni koji nemaju iskustva izvode ozbiljne ransomware napade, a to posljedično znači da će napadi biti efikasniji, budući da neće zahtijevati mnogo vremena u poređenju s ranijim godinama, te neće zahtijevati neko veliko tehnološko znanja i neće biti potrebno uložiti veliki napor za takve poduhvate.

Velika većina danas dostupnih platformi koje koriste velike jezičke modele (LLM), kao što su ChatGPT i Bing Chat, imaju zaštitne mjere koje sprječavaju te platforma za stvaranje zlonamjernog sadržaja, navodi NCSC.

Međutim, NCSC upozorava da cyber kriminalci “prave” i prodaju specijalizirane generativne AI usluge posebno osmišljene za poticanje kriminalnih aktivnosti, a kao primjer navode WormGPT, plaćenu LLM uslugu koja hakerima omogućuje generiranje zlonamjernog sadržaja, uključujući zlonamjerni softver i takozvane “mamce za krađu identiteta”, korištene u phishing napadima.

To, dodaju, ukazuje na to da je tehnologija već “pobjegla” iz ograničenja kontroliranih, sigurnih okvira i postala dostupna u širem kriminalnom ekosistemu.

Evolucijska uloga

U izvještaju se napominje da se očekuje da će uloga vještačke inteligencije na polju rizika od cyber napada biti evolucijska, gdje će ona poboljšavati postojeće prijetnje, umjesto da ih transformira.

Međutim, ne treba vještačku inteligenciju smatrati samo lošom tehnologijom koja nas ugrožava. Iako se ona doista koristi za hakerske napade, istovremeno služi i kao štit od zlonamjernih osoba.

Živković ističe da današnji najmoćniji sistemi zaštite po pravilu koriste vještačku inteligenciju već godinama unazad, prije svega alati za analizu saobraćaja napada i prevenciju od novih, nepoznatih napada. Napominje da vještačka inteligencija već danas pomaže u zaštiti od hakerskih napada, a u narednim godinama AI će biti obavezan dio svakog sistema zaštite. Međutim, ukazuje i da je potrebno “spustiti loptu” kada se govori o vještačkoj inteligenciji.

“Bitno je reći da ne treba nepotrebno praviti bauka i paniku od AI. Ne očekuje se preterano brz i drastičan uticaj AI na sve aspekte interneta, a samim tim na ljudsko društvo kako to danas često možemo videti u bombastičnim medijskim prikazima. Znatno je veća buka danas o AI nego što je njena primena realno izazvala i što će očekivani efekti  napraviti u budućnosti.”

Ono što je sigurno, dodaje, jeste da će vrlo brzo morati da se mijenjaju zakoni kako bi se preduprijedile zloupotrebe i umanjili efekti zloupotrebe AI.

Izvor: Al Jazeera