The Washington Post: Izraelska AI fabrika u Gazi
Kritičari tvrde da je izraelski AI program doprinio povećanju broja ubijenih u Gazi, sa više od 45.000 žrtava, većinom žena i djece, zbog brzog generisanja nesigurnih meta.
Nakon napada Islamskog pokreta otpora (Hamas) 7. oktobra 2023. godine, izraelske snage su Pojas Gaze zasule bombama koristeći se bazom podataka pažljivo prikupljanih tokom godina, koja je sadržavala adrese stanovanja, podatke o tunelima i vitalnoj infrastrukturi Pojasa Gaze. Međutim, nakon što je banka podataka o metama iscrpljena, vojska se okrenula sofisticiranom alatu vještačke inteligencije zvanom Habsora (u prijevodu Evanđelje), koji može brzo generirati stotine novih meta.
Novine The Washington Post (WP) su objavile ekskluzivni izvještaj koji je napisala Elizabeth Dwoskin, u kojem je navela da je Izrael, godinama prije rata u Gazi, svoju obavještajnu jedinicu pretvorio u poligon za testiranje vještačke inteligencije, čija upotreba mu je omogućila brzo kreiranje banke meta izraelske vojske i nastavak vojne kampanje, što je doprinijelo eskalaciji rata u Gazi.
Nastavite čitati
list of 4 itemsTrumpov saveznik Steve Bannon prozvao Elona Muska ‘istinski zlim’
Stara tehnologija u temeljima svjetske mreže
AI donosi renesansu nuklearne energije
Izraelska vojska je objavila postojanje ovog programa, koji predstavlja – prema mišljenju nekih stručnjaka – najnapredniju vojnu inicijativu u oblasti vještačke inteligencije. U ovoj istrazi The Washington Posta otkriveni su do sada neobjavljeni detalji o internim operacijama programa mašinskog učenja kao i tajna decenijska historija njegovog razvoja.
Broj žrtava
Istraga je, također, otkrila da je unutar najviših nivoa izraelske vojske, godinama prije napada Hamasa, započela rasprava o kvalitetu obavještajnih podataka prikupljenih putem vještačke inteligencije, stepenu provjere tehnoloških preporuka te je li fokus na vještačku inteligenciju oslabio sposobnosti izraelske obavještajne službe.
Neki kritičari su zaključili da je AI program bio sila iza scene koja je doprinijela povećanju broja ubijenih u Gazi, kojih je do sada više od 45.000, većinom žena i djece.
Pored dokumenata do kojih je došao, WP je naveo da se njegov izvještaj zasniva i na intervjuima s više od 12 osoba upoznatih sa AI sistemima, od kojih su mnogi govorili pod uvjetom da ostanu anonimni jer su iznijeli detalje o strogo povjerljivim temama nacionalne sigurnosti.
„Ono što se dešava u Gazi uvod je u širu promjenu načina vođenja rata“, rekao je Steven Feldstein iz Carnegie fondacije, istraživač upotrebe vještačke inteligencije u ratu.
Izraelska vojska tvrdi da su netačne optužbe da njena upotreba vještačke inteligencije ugrožava živote te je u jednom saopćenju objasnila da veća efikasnost u prikupljanju informacija čini operacije preciznijim i da je svaki oficir obavezan potpisati preporuke koje generišu sistemi za „obradu velikih podataka“ koje koristi vojska.
Yossi Sariel – šef jedinice 8200 odgovorne za obavještajne podatke iz signala – branio je razvoj programa Habsora za mašinsko učenje, zasnovanog na stotinama algoritama za predviđanje, koji omogućava vojnicima brzu pretragu ogromne baze podataka, poznate u vojsci kao „bazen“.
Analizom ogromne količine podataka iz presretnutih komunikacija, satelitskih snimaka i društvenih mreža, algoritmi izbacuju koordinate tunela, raketa i drugih vojnih ciljeva, a preporuke koje prođu provjeru stavljaju se na listu meta od strane visokog oficira.
Drugi alat za mašinsko učenje pod nazivom Lavanda koristi skalu za procjenu vjerovatnoće pri sagledavanju koliko je vjerovatno da je neki Palestinac član naoružane grupe, što izraelskoj vojsci omogućava da brzo napravi dugu listu potencijalnih ljudskih meta. Postoje i drugi algoritamski programi koji omogućavaju vojnicima pretraživanje različitih skupova podataka o kojima ranije nije bilo izvještaja.
Strahovi
WP je naveo da su mnogi oficiri izrazili zabrinutost da tehnologija mašinskog učenja, koja je ubrzala donošenje odluka, skriva određene mane, a interna revizija je otkrila da, zaista, neki sistemi vještačke inteligencije za obradu arapskog jezika imaju greške i ne uspijevaju razumjeti ključne kolokvijalne riječi i fraze, prema riječima ranije spomenutih vođa.
Tehnologija mašinskog učenja u izraelskoj vojsci predviđa – prema novinama – broj civila koji bi mogli biti pogođeni prilikom napada, a „prihvatljiv omjer civilnih žrtava za izraelsku vojsku u 2014. godini bio je jedan civil na svakog visokorangiranog teroristu“, prema riječima Tala Mimrana, bivšeg pravnog savjetnika izraelske vojske.
Tokom rata u Gazi, taj broj iznosi 15 civila na svakog niskorangiranog pripadnika Hamasa i „mnogo je veći“ za pripadnike srednjeg i visokog nivoa, prema izraelskoj organizaciji za ljudska prava Breaking the Silence.
Neki zagovornici upotrebe tehnologije od strane Izraela tvrde da je agresivno korištenje inovacija poput vještačke inteligencije neophodno za opstanak male države koja se suočava s odlučnim i snažnim neprijateljima. Tako je Blaise Misztal, potpredsjednik za politiku pri Jevrejskom institutu za američku nacionalnu sigurnost (JINSA), rekao: „Tehnološka superiornost je ono što održava sigurnost Izraela. Što brže uspijete identificirati sposobnosti neprijatelja i ukloniti ih s bojnog polja, to će rat biti kraći i gubici će biti manji.“
Pod vođstvom Sariela i drugih obavještajnih lidera, jedinica 8200 je restrukturirana tako što je fokus stavljen na inženjere, smanjen broj stručnjaka za arapski jezik, uklonjeno mnogo lidera koji se protive vještačkoj inteligenciji, a neke grupe koje nisu bile koncentrirane na tehnologiju ekstrakcije podataka su raspuštene, prema riječima tri osobe.
Optužbe za genocid koje je Južna Afrika podnijela protiv Izraela pred Međunarodnim sudom pravde otvorile su pitanje o tome da li ključne odluke u vezi s bombardiranjem ciljeva u Gazi donose programi. Ovo istraživanje moglo bi ubrzati globalnu raspravu o ulozi vještačke inteligencije u ratu.
Sariel je objavio podnošenje ostavke na svoju poziciju zbog sve češćeg traženja objašnjenja za obavještajne propuste koji su doveli do napada 7. oktobra, a dva bivša visokopozicionirana lidera izjavila su da vjeruju kako je veliki fokus na vještačku inteligenciju ključni razlog koji je doveo do toga da Izrael bude iznenađen tog dana.
Jedan bivši vojni lider, koji je želio ostati anoniman, opisao je diskusije o nacionalnoj sigurnosti riječima: „Ovo je sistem fokusiran na vještačku inteligenciju, čovjek je zamijenjen mašinom.“
Prepreke
Dvije godine prije nego što je preuzeo funkciju šefa u obavještajnoj službi, Sariel je proveo godinu dana na Univerzitetu za nacionalnu odbranu u Washingtonu i u tom periodu napisao knjigu o viziji implementacije automatizacije u institucijama nacionalne sigurnosti. Knjiga je naslovljena kao Tim ljudi i mašina. Kako uspostaviti sinergiju između ljudske i vještačke inteligencije.
U knjizi je opisao kako se postupci „izdvojenih terorista“, kako ih je opisao, mogu predvidjeti oslobađanjem algoritama za analizu lokacija telefona, objava na društvenim mrežama, snimaka dronovima i presretnutih privatnih komunikacija.
Sariel u svojoj knjizi tvrdi da AI može biti posebno korisna u vrijeme rata jer može ubrzati prepoznavanje meta i otkloniti prepreke koje dolaze od čovjeka i usporavaju sve.
Kako je prešao u više rukovodstvo, Sariel je ubrzao napore prikupljanja podataka i zagovarao široku reorganizaciju koja podrazumijeva podjelu obavještajnih napora „AI fabrikama“, kako su ih nazvali komandanti, smještenim u novoosnovanom Centru za mete u zračnoj bazi Nevatim na jugu Izraelu. Svaki tim je razvio stotine algoritama, tehnika mašinskog učenja i metoda za razmjenu softverskih predviđanja kroz obavještajni lanac komandiranja.
Neki komandanti bili su zabrinuti zbog tačnosti tih algoritama, a jedan od revizijskih postupaka tehnike obrade jezika otkrio je da predviđanja softverskih programa nisu precizna kao ljudska, dok su drugi bili zabrinuti zbog davanja previše značaja predviđanjima programa.
Izraelski novinar Ben Caspit, koji je radio intervju sa svakim komandantom jedinice 8200 u pripremi knjige na ovu temu, rekao je: „Zaključak je da se čovjek koji kaže: ‘Slušaj, ovo je opasno’ ne može zamijeniti nijednom naprednom AI tehnologijom na svijetu. Vjerovanje da može je arogancija koja je zahvatila cijelu jedinicu.“
U junu 2021. godine, kada je izbio 11-dnevni rat sa Gazom, Izrael je dobio svoju prvu priliku da primijeni svoju novu banku podataka zasnovanu na algoritmima. Visoki komandanti iskoristili su taj trenutak kao priliku da promoviraju AI revoluciju koja se dešavala u Nevatimu i u sjedištu jedinice 8200 na sjeveru Tel Aviva. Misztal je rekao da je sve o čemu su govorili visoki komandanti bila „prva ratna operacija u svijetu zasnovana na vještačkoj inteligenciji“.
Fabrika meta
Iako međunarodno humanitarno pravo zahtijeva od zaraćenih država da uravnoteže očekivanu vojnu korist od napada sa očekivanim kolateralnim štetama za civile, ugovori koje je Izrael samo djelimično ratificirao ne govore o vještačkoj inteligenciji, mada je izraelska vojska rekla da obrada obavještajnih podataka „ispunjava definiciju legitimnog cilja u međunarodnom pravu“.
Izrael je priznao da je AI odigrao glavnu ulogu u procesu odabira meta u Gazi te je brzo zasuo to područje američkim projektilima Mark 80 teškim 2.000 funti.
U saopćenju za medije od 2. novembra 2023. godine, izraelska vojska je izjavila da joj je AI pomogao u bombardiranju 12.000 meta u Gazi. Uz muzičku podlogu i snimke eksplodiranja zgrada, u saopćenju je istaknuta „prva saradnja ove vrste“ – slanje obavještajnih podataka iz fabrike ciljeva dobivenih vještačkom inteligencijom snagama na terenu, u zraku i na moru, što omogućava „izvođenje stotine napada u jednom trenutku“.
U prvim danima rata fabrika meta je radila punim kapacitetom s oko 300 vojnika koji su radili bez prestanka. Od brojnih analitičara se zahtijevalo provjeravanje meta koje su preporučili programi Habsora i Lavanda. Međutim, kako su se događaji ubrzavali, ukinuto je pravilo potvrde predviđanja Lavande kroz dva izvora obavještajnih podataka prikupljenih od ljudi.
U nekim situacijama su vojnici divizije Gaza koji su slabo obučeni za korištenje tehnologije ciljali ljude bez ikakve provjere predviđanja programa Lavanda, prema riječima jednog vojnika. Neki vojnici su bili zabrinuti oslanjanjem isključivo na tehnologiju bez potvrde da su ljudi još uvijek aktivni pripadnici Hamasa.
The Washington Post je citirao Haidi Khalaf – otvorenu kritičarku Izraela i glavnu naučnicu za vještačku inteligenciju na Institutu za vještačku inteligenciju u New Yorku – koja je rekla da AI sistemi imaju greške koje ih čine neprikladnim kada je riječ o životu i smrti, poput rata. Naglasila je da je industrija robotiziranih automobila proteklu deceniju posvetila pokušaju da dobije stopostotnu tačnost svojih algoritama mašinskog učenja, ali s vrlo malo uspjeha.