Postaje li vještačka inteligencija budućnost ratovanja?

Vještačka inteligencija je našla primjenu u rusko-ukrajinskom ratu, a rezultati njenog korištenja bi mogli biti prikaz budućih sukoba.

Ruske bespilotne letjelice koje korištenjem AI-a mogu same tražiti mete su već navodno korištene u Ukrajini (EPA - Ilustracija)

Od početka ruske invazije na Ukrajinu, prije više od stotinu dana, uveliko se govori o upotrebi naprednog oružja. Ukrajinske snage su uspjele umnogome zaustaviti, pa čak i natjerati u povlačenje moćnu vojsku Ruske Federacije korištenjem modernog, lako prenosnog oružja, poput “Javelin” protutenkovskog raketnog sistema, ili sličnog protuzračnog sistema “Stinger”.

Ono o čemu se manje govori jeste upotreba vještačke inteligencije u ovom ratu, a njena primjena bi mogla pokazati kakva će budućnost ratovanja biti.

Pentagon, primjera radi, koristi priliku da pomoću AI sistema dobije što više informacija sa bojišta i na osnovu njih pravi nove planove, ali i vrši buduća prilagođavanja.

Tako američka vojska potiho koristi vještačku inteligenciju i alate za mašinsko učenje za analizu ogromnih količina podataka, te za generiranje korisnih obavještajnih informacija i učenja o ruskoj taktici i strategiji, ukazao je Maynard Holiday, viši zvaničnik američkog Ministarstva odbrane.

Tehnologija za prikupljanje podataka i traženje određenih objekata u snimcima koje su prikupili dronovi je proteklih godina znatno uznapredovala, što je dovelo i do korištenja satelitskih snimaka za slične poduhvate.

Osim za obradu velikih količina podataka, kaže Dalibor Milić, freelance novinar specijaliziran za dešavanja iz napredne tehnologije, vještačka inteligencija se sve više koristi i kod automatiziranih naoružanih sistema, popularno nazvanih “robotima ubicama”, u osnovi naoružanim sistemima koji su programirani da samostalno traže i napadnu određenu vrstu meta, poput suparničkih tenkova, skladišta, bunkera, ili čak vojnika i visokorangiranih zapovjednika. U tim naporima, cilj je smanjiti upliv ljudskog odlučivanja, odnosno vještačka inteligencija bi trebala samostalno donositi odluke o napadima.

Napredak tehnologije

Dodaje da je napredak u vještačkoj inteligenciji olakšao uključivanje autonomije u sisteme oružja i povećao izglede da će sposobniji sistemi na kraju sami odlučiti koga će ubiti. Milić podsjeća da je u izvještaju Ujedinjenih naroda objavljenom prošle godine navedeno da je smrtonosni dron sa sposobnošću samostalnog donošenja odluka i napada na mete možda korišten u libijskom građanskom ratu.

S obzirom da ova tehnologija i dalje sklona greškama, ali i zbog brojnih pitanja samog djelovanja i donošenja odluka ovih “robota ubica”, brojne svjetske organizacije su tražile zabranu korištenja ovakvih tehnologija u vojne svrhe, dodaje Milić.

Kontrola ovakvih AI sistema je posebno ključna u situacijama kada vojne operacije jedne strane idu loše, pa “gubitnička” strana dođe u iskušenje da koristi nove tehnologije kako bi stekla prednost na terenu, dodaje. Navodi i da postoje tvrdnje da je Rusija u Ukrajini počela koristiti automatizirani “samoubilački dron” KUB-BLA, koji ima sposobnost identificiranja ciljeva pomoću vještačke inteligencije.

Hoćemo li jednog dana zaista imati potpuno automatizirane “robote ubice” koji će biti sastavni dio vojnih snaga raspoređenih na bojištu ostaje da se vidi, ali trenutni trendovi te razvoj tehnologija svakako idu tome u prilog.

Dr. Dinko Osmanković, vanredni profesor na Elektrotehničkom fakultetu u Sarajevu, pojašnjava da je korištenje vještačke inteligencije (gotovo) uvijek upravljano samom primjenom.

“Ako se radi o vojnim sistemima, onda umjetna inteligencija treba da ostvari vojne ciljeve ili da barem pomogne njihovom ostvarivanju”.

Kako se ne bavi razvojem vojnih tehnologija, Osmanković kaže da može samo navesti procjene njene primjene.

Primjena robota

“Recimo da želimo da uzmemo neku teritoriju od protivnika. Slanje klasične pješadije (ljudi) za takvo što bi dovelo do neželjenih gubitaka, ali ako pošaljemo jedinicu robota do obavi taj zadatak, gubitaka nema. Slične stvari se trenutno već koriste, ali takvi su strojevi uglavnom upravljani sa udaljenosti od strane operatera (suštinski je to vid teleoperacije) i najčešće se radi o bespilotnim letjelicama. Pored toga, izvidnički dronovi mogu raditi potpuno autonomno – kao ulaz im se daju GPS koordinate koje se nadziru, a onda te letjelice šalju podatke koji se analiziraju od strane eksperata i vjerovatno uz pomoć sistema zasnovanih na umjetnoj inteligenciji”.

Podizanje ovih sistema na viši nivo, u smislu potpune autonomnosti, zahtjeva ogromne količine podataka iz koje bi AI sistemi mogli učiti, a ranije spomenuti teleoperacijski sistemi upravo daju dobre osnove za takvo nešto – velike količine podataka sa senzora, ali i donesenih odluka operatera.

Ono što posebno brine protivnike korištenja AI sistema za donošenje odluka i izvršavanje napada jesu problemi koji su primjetni u civilnom sektoru.

Vještačka inteligencija se uveliko koristi u sistemima nadzora u brojnim zemljama, prije svega za identifikaciju osoba od interesa, ali su se te tehnologije često pokazale netačnim, identificirajući pogrešne osobe, kaže Milić. To je posebno bilo primjetno u slučaju identifikacije osoba tamnije puti, zbog čega su sve glasnije osude udruženja za zaštitu ljudskih prava.

Ako AI može zamijeniti dvije osobe kojim je najveća sličnost samo boja kože, kako joj možemo povjeriti da samostalno odluči koju metu treba eliminirati?

“Da li AI u vojnim primjenama može sam birati svoje mete? Može, samo je pitanje, kao i inače u vojnim misijama, na što ste kao vojni strateg spremni. Koja je to količina uloženih resursa, koji su mogući gubici, koje su moguće vojne i/ili političke posljedice takvih odluka”, kaže Osmanković.

Kolateralna šteta

S druge strane, zagovornici korištenja ove napredne tehnologije tvrde da bi upravo AI mogao smanjiti broj pogibija civila, jer za razliku od ljudi, emocije, umor i stres nisu faktor prilikom donošenja smrtonosnih odluka.

Svaki rat donosi kolateralnu štetu – uništenu civilnu imovinu, civilne žrtve, ali i vojnike koji su možda mogli biti sačuvani, kaže stručnjak sa sarajevskog ETF-a.

“AI može pomoći ostvarenju vojnih ciljeva, ali gotovo uvijek to ostvarivanje sa sobom nosi velike rizike. Neostvarivanje tih ciljeva potencijalno donosi još i veće. Naravno, sada ulazimo u domene etičnosti nekih odluka i na šta smo kao društvo spremni da bismo ostvarili (nekakve) ciljeve”.

On se i osvrnuo na pitanje etičnosti razvoja vještačke inteligencije u vojne svrhe.

“Ovisi o tome šta mi kao društvo želimo. Da li je prihvatljivo čuvati sigurnost i demokratiju ubijanjem ljudi? Da li smo spremni, pri eliminaciji vojnih meta, pristati na moguće kolateralne žrtve? Da li smo spremni koristiti AI da se taj broj kolateralnih žrtava smanji, ali da ne bude nula?”

Osmanković navodi i da je etičnost AI-a područje koje se intenzivno istražuje i mnogo je napredaka ostvareno, gdje navodi primjer MIT Moral Machine, koji je jedan od takvih projekata koji je unaprijedio ovu oblast.

“Mane, u smislu etičnosti, koje su definirane za civilne primjene AI-a mogu se lako generalizirati na vojne primjene”.

Izvor: Al Jazeera