Vještačka inteligencija u ‘pogrešnim rukama’ predstavlja sve veći rizik

Vještačka inteligencija otvara nova vrata zlonamjernim akterima, što izaziva zabrinutost naučne i sigurnosne zajednice.

Bilo koja tehnologija, pa i vještačka inteligencija, sami po sebi nisu ni dobri ni loši, već su samo alat, tvrde stručnjaci (REUTERS/Dado Ruvic/Illustration/File Photo)

Vještačka inteligencija (AI) je bez sumnje jedna od tehnologija o kojoj se najviše raspravlja širom svijeta, gdje s jedne strane zagovornici tvrde da će unaprijediti svakodnevni život ljudi, a brojni su primjeri koji to potkrepljuju, poput primjene u medicini, farmaciji, upravljanju saobraćajem i slično, dok pesimističniji upozoravaju da ona predstavlja veliku prijetnju, za šta također postoje primjeri koji podržavaju takve stavove.

Ono u čemu se svi slažu jeste da će AI utjecati na gotovo svaki aspekt naših života, kao i da smo tek “na vrhu ledenog brijega” kada je puni potencijal ove tehnologije u pitanju, koja će nam omogućiti da produbimo svoja saznanja o nama samima, odnosno ljudskoj genetici, da omogućimo duži i kvalitetniji život, koristimo samovozeća vozila i robote, koji će nam dati više vremena i prilike da se posvetimo sebi i svojim interesima, ali da se zaštitimo od kriminala i prevara…

Pa ipak, kao i u slučaju bilo koje od novih tehnologija, vještačka inteligencija ima potencijal da uzrokuje štetu ako se nađe u pogrešnim rukama. Već danas je alat u zlonamjernim rukama, prije svega za hakerske napade, kako bi prevarila sigurnosne alate za čije stvaranje se često koristila.

Kako rastu mogućnosti tehnologije koja može obrađivati ogromne količine podataka u gotovo trenutku, tako i među svjetskim silama raste strah od njenog pogrešnog korištenja. Jer, kako spremno tvrde stručnjaci, bilo koja tehnologija, pa i vještačka inteligencija, sami po sebi nisu ni dobri ni loši, već su samo alat. A ljudska historija je opetovano pokazala da se i najobičniji alat, zamišljen za dobre stvari, često koristio da nanese bol i smrt ljudima.

Tako ne čudi da je nedavno agencija Reuters objavila da je administracija američkog predsjednika Joea Bidena spremna otvoriti novi front u svojim nastojanjima da zaštiti američku vještačku inteligenciju od Kine i Rusije s preliminarnim planovima za postavljanje zaštita oko najnaprednijih modela AI-ja.

Ograničenje tehnologije

Washington je već krajem 2022. godine uveo ograničenja na izvoz čipova u Kinu, danas vjerovatno najvećeg američkog suparnika, za kojeg stručnjaci tvrde da se ozbiljno približio, a neki su spremni i reći da je nadmašio SAD kad je u pitanju razvoj i primjena vještačke inteligencije.

Prije, sad već daleke, tri godine je Nicolas Chaillan, bivši šef za softver u Pentagonu, za Financial Times kazao da su Sjedinjene Američke Države već izgubile bitku u području vještačke inteligencije od Kine, koja ide ka globalnoj dominaciji napredujući u razvoju novih cyber potencijala.

Te iste godine je istraživanje koje je provela Fondacija za informacijsku tehnologiju i inovacije iz Washingtona pokazalo da Evropska unija zaostaje u razvoju i korištenju AI-ja, području u kojem su Sjedinjene Američke Države predvodnik, dok Kina brzo napreduje.

Kako bi konkurenta spriječio da ga dostigne pa čak i prestigne, Washington se nije zadovoljio da uvodi vlastita ograničenja na izvoz tehnologija za čipove koji služe za pogon i razvoj vještačke inteligencije, već, kako prenose mediji, pritišće svoje saveznike Japan i Nizozemsku za dodatna ograničenja izvoza opreme za proizvodnju čipova u Kinu.

Kako je naveo Reuters, istraživači iz vladinog i privatnog sektora zabrinuti su da bi američki protivnici mogli koristiti modele vještačke inteligencije, koji pretražuju ogromne količine teksta i slika za sumiranje informacija i stvaranje različitog sadržaja, ali i za izvođenje cyber napada pa čak i za proizvodnju moćnog biološkog oružja.

Prema stručnjacima, neki od metoda korištenja AI-ja u zlonamjerne svrhe jeste njeno korištenje za propagandu i utjecaj na javnost, dok su moguće i direktnije, opasnije posljedice, poput razvoja biološkog oružja ili izvođenja cyber napada širokog opsega, koji mogu poremetiti ekonomije, ali i dovesti do fizičkih posljedica po ljude.

AI propaganda

Kako je Rod Trent, stručnjak Microsofta za sigurnost i AI napisao u svom blogu, vještačka inteligencija, sa svojom sposobnošću analiziranja ogromnih količina podataka, učenja iz njih i donošenja odluka ili predviđanja, ima potencijal da revolucionizira razne industrije. Međutim, ta ista moć može se iskoristiti za zlonamjerne namjere.

Kako je rekao, kada vještačka inteligencija padne u pogrešne ruke, može se koristiti za stvaranje vrlo realističnih “deepfake” videozapisa koji mogu širiti dezinformacije ili klevetati pojedince, ali se može koristiti za manipulaciju na platformama društvenih medija, širenje govora mržnje, poticanje na nasilje ili za utjecaj na javno mnijenje.

Osim toga, cyber napadi pokretani vještačkom inteligencijom mogu iskoristiti ranjivosti u računarskim sistemima, što dovodi do upada u podatke i njihovu krađu, do finansijskog gubitka, pa čak i oštećenja infrastrukture.

Možda i najjači alat naporima za širenje dezinformacija jesu takozvani “deepfake” vještački generirani videozapisi za koje je običnom oku, ali danas i već dobrom dijelu tehnologije, nemoguće razlučiti od stvarnih događaja. Široj javnosti je ova tehnologija skrenula pažnju još za vrijeme mandata tadašnjeg američkog predsjednika Baracaka Obame, koji je, prema snimku, nakon konferencije ljutito svom snagom nogom šutirao vrata i izjurio iz prostorije. Već tada je veliki broj korisnika društvenih mreža bio “siguran” da gleda stvarni događaj, a u međuvremenu je tehnologija uveliko napredovala.

Danas takvi izmišljeni videozapisi koje su izradili algoritmi vještačke inteligencije na osnovu “mora” snimaka na internetu preplavljuju društvene mreže, zbog čega mnogi nisu sigurni da li gledaju nešto što je stvarnost ili neistina. Mnoge stručnjake brine ova tehnologija jer smatraju da u narednim godinama ljudi neće moći vjerovati ničemu što sami ne vide svojim očima, jer je pitanje, primjera radi, da li je snimak vijesti koje gledamo na internetu i streaming servisima istinit, ili je posljedica nečijeg upliva korištenjem AI-ja.

Pitanje povjerenja

Kako se svakim danom pojavljuje sve više takozvanih “generativnih AI ” alata, poput Midjourneyja, koji omogućavaju stvaranje jeftinih i izuzetno uvjerljivih “deepfakeova”, jasno je da je opravdan strah hoćemo li moći vjerovati ičemu što se nije desilo pred našim očima.

Slično vrijedi i za fotografije, jer kao što AI alati mogu praviti uvjerljive lažne snimke, tako se mogu praviti i lažne fotografije koje bi mogle služiti za širenje dezinformacija povezanih sa izborima ili glasanjem. Naravno, manipulacija fotografija nije novost, pogotovo od stvaranja alata poput Photoshopa, ali je prije trebalo ipak poveliko znanje i resursi što danas AI može učiniti gotovo trenutno, samo na osnovu par uneseni komandi i informacija.

Također, AI može bez problema oponašati stvarne novinske članke, odnosno generirati hiljade takvih članaka gotovo trenutno, koji bi se koristili za širenje lažnih informacija.

Istina, velike platforme društvenih mreža, poput Facebooka, X-a, odnosno nekadašnjeg Twittera i YouTubea, ulažu napore da se izbore sa “deepfake” sadržajima, ali zasad ne uspijevaju da se izbore s ovim problemom.

Ono što posebno zabrinjava jeste da AI u pogrešnim rukama može imati i direktne, opipljive posljedice, koji bi doslovno mogli iskorijeniti ljudsku vrstu.

Biološko oružje

Reutersova Alexandra Alper je objavila da su američka obavještajna zajednica, centri za strateška promišljanja i naučna zajednica sve su više zabrinuti zbog rizika koje predstavljaju strani akteri koji dobijaju pristup naprednim AI sposobnostima te je istakla da su istraživači Gryphon Scientifica i Rand Corporationa primijetili da napredni AI modeli mogu pružiti informacije koje bi mogle pomoći u stvaranju biološkog oružja.

Tako je Gryphon proučavao kako se veliki jezički modeli (LLM) – računarski programi koji izvlače informacije iz ogromnih količina teksta za generiranje odgovora na upite – mogu neprijateljima poslužiti da nanose štetu u domeni nauka o životu te je otkrio da oni “mogu pružiti informacije koje bi mogle pomoći pri stvaranju biološkog oružja pružanjem korisnih, tačnih i detaljnih informacija u svakom koraku na ovom putu.”

Otkriveno je i da, primjera radi, LLM može pružiti znanje na postdoktorskom nivou za rješavanje problema pri radu s virusom sposobnim da izazove pandemiju.

Istraživanje Randa je pokazalo da bi LLM mogao pomoći u planiranju i izvršenju biološkog napada, te su otkrili su da LLM može, na primjer, predložiti metode ispuštanja u zrak botulinskog toksina, odnosno da ga pretvore u aerosol.

Cyber napadi

Osim biološkog, AI može poslužiti za stvaranje takozvanog cyber oružja. Već danas su prisutni cyber napadi koji su potpomognuti korištenjem AI-a, a nema sumnje da će se takve prakse samo širiti. Za izvođenje cyber napada prije je bilo potrebno znanje i ekspertiza, dok će AI sistemi omogućiti i ljudima bez posebne stručne spreme da izvode cyber napade manjeg ili većeg obima.

Stoga ne čudi što je američko Ministarstvo domovinske sigurnosti (DHS) objavilo da će cyber akteri vjerovatno koristiti AI za “razvijanje novih alata” koji će im omogućiti veće, brže i učinkovitijih cyber napade protiv kritične infrastrukture uključujući cjevovode i željeznice.

DHS je u svom godišnjoj procjeni domovinske sigurnost za 2024. naveo da Kina i drugi protivnici razvijaju AI tehnologije koje bi mogle potkopati cyber odbranu SAD-a, uključujući generativne AI programe koji podržavaju napade korištenjem zlonamjernog softvera.

Ovo su samo neki od primjera koji brinu naučnu i sigurnosnu zajednicu kada je u pitanju vještačka inteligencija u pogrešnim rukama, iako su mnogi spremni dovesti u pitanje definiciju “pogrešnih ruku”. Primjera radi, jedan od najbližih američkih saveznika, Izrael, koristio je, tvrde razni izvori, vještačku inteligenciju za lociranje i biranje meta u ratu koji vodi protiv Gaze, ali i u druge vojne svrhe, što za kritičare znači da AI već direktno utječe na živote ljude.

Mnogi pozivaju na ograničavanje razvoja vještačke inteligencije i njene primjene u vojne svrhe, ali kako ta tehnologija predstavlja narednu stepenicu u tehnološkoj evoluciji, malo je vjerovatno da će AI biti “gurnut u stranu”.

Izvor: Al Jazeera