Vještačka inteligencija u rukama hakera ozbiljna prijetnja

Vještačka inteligencija postaje sve kompleksnija, s većom integracijom u nove servise i proizvode.

Kako hakeri podižu nivo svoje igre, poboljšavaju svoje alate, tako i stručnjaci sigurnosti moraju poboljšati svoje, kaže profesor Osmanković (EPA)

Vještačka inteligencija (AI) iz dana u dan postaje sve kompleksnija i moćnija, a ujedno se bolje integrira u nove servise i proizvode. Koliko god takav razvoj događaja nosi niz prednosti, mnogi tu sve veću primjenu vještačke inteligencije vide kao novu, veliku prijetnju, te novi sigurnosni problem u budućnosti. Prema nekim tvrdnjama, fokus hakera će biti na “probijanju” sistema kroz komponente vještačke inteligencije, a za šta će koristiti vlastite AI tehnologije. U čemu stara izreka “klin se klinom izbija” dobija sasvim novu dimenziju.

Prednost vještačke inteligencije leži u tome što je u stanju da obradi ogromne količine podataka mnogo brže, preciznije i u konačnici inteligentnije od ljudi od krvi i mesa, što pokazuje zbog čega AI hakerski napadi mogu biti izuzetno opasni. Kako se smatra, hakerski napad izveden uz pomoć vještačke inteligencije može biti izuzetno sofisticiran do te mjere da će ga biti teško predvidjeti i izbjeći, što znači da će takve napade biti mnogo teže kontrolirati, a oni potencijalno mogu da izazovu veću štetu u napadnutom sistemu od do sada korištenih metoda.

Metode napada

Dr. Dinko Osmanković, vanredni profesor na Elektrotehničkom fakultetu u Sarajevu, govori da postoji više načina kako hakeri koriste AI za napadanje sistema.

Prvi način se odnosi na to da se maliciozni kod što bolje sakrije u nekoj aplikaciji.

“U novije vrijeme su se pojavile, na Android i iOS prodavnicama aplikacija, mnogo njih koje imaju sakrivene maliciozne rutine koje za cilj imaju preuzimanje korisničkog smartphonea, tableta, računara, ili pak, sve češće, privatnih informacija. AI se u ovim slučajevima koristi da bi se prikrile informacije o, naprimjer privatnim ključevima za pristupe, ili za učenje zaobilaženja postojećih sigurnosnih postavki sistema”.

Drugi način je, dodaje, iskorištavanje AI za samostalnu propagaciju kroz lokalne mreže. Ovakvi napadi su najčešći u biznis sistemima, gdje je napad na jedan računar unutar mreže, zapravo proxy, odnosno posrednika, za napad na neki drugi, bitniji računar unutar te iste mreže. U slučaju da prilikom takve propagacije maliciozni kod naiđe na neku sigurnosnu zakrpu, tada se ona adaptira čime se nastavlja skrivati od sigurnosnih servisa sistema (antivirusi i slično).

Treći način je korištenje AI modela koji imaju sposobnost imitiranja regularnih i provjerenih dijelova sistema i servisa. Kako kaže, ovakvi napadi su vrlo teški za uočavanje, jer se maliciozni kod ponaša kao da je regularan dio sistema. “Napad na TaskRabbit platformu je izveden na sličan način i otkriven je pukom srećom, manuelnim pregledom aktivnosti”.

I četvrti način je onaj koji koristi AI modele za učenje ponašanje korisnika sistema.

“Na taj način se otvara mogućnost man-in-the-middle napada i upada u sistem, što je klasični i najčešće korišteni način hakiranja sistema. U ovom slučaju, kada se koriste AI modeli, taj se proces umnogome ubrzava i pojednostavljuje”.

Puni potencijal

Koliko god da zabrinjava mogućnost korištenja vještačke inteligencije u hakerske svrhe, dobra vijest je da korištenje njenog punog potencijala i dalje daleko od svakodnevnice.

“Iako razvoj i inovacije na području vještačke inteligencije značajno napreduje, mislim da je trenutak kada ćemo vidjeti puno korištenje AI-a u hakerskim napadima još uvijek dosta daleko”, govori Bojan Ždrnja, viši savjetnik za informatičku sigurnost kompanije INFIGO IS, specijalizirane za pružanje profesionalnih usluga u području informatičke sigurnosti.

Gledajući ranjivosti i napade koji su se desili zadnjih godina, dodaje, vidljivo je da je sve rjeđi slučaj da se nađe jedna ranjivost s kojom je moguće kompromitirati neki sistem, već da je puno češći slučaj kada se koriste višestruke ranjivosti da se dođe do cilja (takozvani vulnerability chaining).

“Kod takvog iskorištavanja ranjivosti zapravo je glavni faktor inovativnost napadača – što u ovom slučaju još uvijek može napraviti samo čovjek”.

“AI je tu još dosta daleko, ali onog gdje se svakako danas mogu iskoristiti računala i donekle AI je za repetativne stvari gdje je potrebno napasti veliki broj ciljnih sustava, ali poznatim metodama. Tu ovakve metode mogu biti od velike koristi”, pojašnjava stručnjak za informatičku sigurnost.

Potencijalni problem kod korištenja vještačke inteligencije u zlonamjerne svrhe je svakako kad u jednom trenu AI postane dovoljno napredan da će moći pojedinu ranjivost iskoristiti (pre)brzo, što može biti problem u odbrani, no današnji AI je daleko od toga, smatra on.

Odbrana i zaštita

S obzirom da korištenje vještačke inteligencije u hakerske svrhe predstavlja ozbiljan problem, jasno je da bi i vještačka inteligencija mogla biti i sredstvo zaštite.

Ždrnja navodi da kao što se vještačka inteligencija može koristiti za hakerske napade – tako se može koristiti i za odbranu, pa možemo vidjeti da razvoj i inovacije postoje na obje strane, te naglašava da misli da ćemo korist od AI prije vidjeti na području odbrane nego napada.

Profesor Osmanković dodaje da je rat između hakera sa jedne strane i stručnjaka iz domena sigurnosti sistema takozvani “zero-sum igra” iz teorije igara.

“Kako hakeri podižu nivo svoje igre, poboljšavaju svoje alate, tako i stručnjaci moraju poboljšati svoje. Već se AI koristi upravo za ovakve svrhe, antivirusni softveri koriste tehnike mašinskog učenja već barem zadnjih 10 godina. Mitigacije složenijih napada će zahtijevati i brzu prilagodbu na nove tipove i tehnike napada, a najbrži način je korištenje AI modela koji su sposobni da samostalno uče iz prethodnog iskustva”, dodaje stručnjak Elektrotehničkog fakultete u Sarajevu.

Kao jedna od najranjivijih tačaka za hakerske napade smatraju se sve popularniji chat-botovi, programi koji automatiziraju određene zadatke, obično razgovorom s korisnikom putem konverzacijskog sučelja poput onih koji “odgovaraju” korisnicima u Facebook Messengeru i slično, jer su direktno izloženi korisnicima van kompanije koja je koristi. Već postoji alat za te napade, Emotet Trojan malware, koji se smatra AI-zasnovanim prototipom napravljenim s ciljem da cilja sektor finansija (chat-botove u bankama, primjera radi), što postavlja pitanje da li su kompanije faktički ranjivije ako koriste ovakve programe.

Ždrnja navodi da su kod ovakvih primjena mogući svakakvi ishodi – ako je servis poput chat-bota loše napravljen, moguće je njime manipulirati i provesti aktivnosti koje možda nisu bile očekivane.

“Kako te stvari danas mogu napraviti pravi napadači, uvođenjem AI-a moguće je očekivati da će se napadi lakše i brže iskorištavati. A na jednak način valjda će se AI moći pripremiti i na strani obrana … pa ćemo tek vidjeti što budućnost donosi”.

Dostupni AI

S obzirom da danas na internetu postoje brojni primjeri takozvanih “open source”, javno dostupnih programa i sistema, opravdana je zabrinutost da postoje i slični “open source” sistemi vještačke inteligencije koji omogućavaju manje ili više vještim i zlonamjernim hakerima da je iskoriste za svoje napade.

Međutim, kako pojašnjava profesor Osmanković, open source implementacije i nisu baš smislene u tom svijetu.

“Naime, hakeri vrlo često koriste neotkrivene propuste u sistemima i na njima grade AI modele za složenije napade. Ipak, postoji nešto što se zove etičko hakiranje, koje za cilj ima ukazivanje na propuste sistema s ciljem njihove zaštite od neovlaštenog korištenja. Postoji već desetine open source projekata za AI bazirano etičko hakiranje, ali su najčešće plod akademskog istraživanja, a ne stvarnih, malicioznih hakerskih napada”.

Izvor: Al Jazeera