Musk želi koristiti AI za vođenje Američke vlade, stručnjaci kažu – ‘veoma loša’ ideja
Vladina upotreba vještačke inteligencije može poći po zlu na brojne načine, uključujući manjak transparentnosti kada je riječ o načinu treniranja alata.

Planira li Elon Musk koristiti vještačku inteligenciju (AI) da vodi Američku vladu? Čini se da je to njegov plan, ali stručnjaci kažu da je to „veoma loša ideja“.
Musk je otpustio desetke hiljada zaposlenika Federalne vlade kroz svoj Odjel za vladinu efikasnost (DOGE) i navodno od preostalih zaposlenika zahtijeva da sedmično šalju e-mail s pet ključnih tačaka u kojima opisuju šta su postigli te sedmice.
Nastavite čitati
list of 4 itemsŠta je Starlink, kakvu opremu zahtijeva i koliko košta usluga
Profit Tesle zbog slabije prodaje opao za 71 posto u prvom kvartalu
Irska komisija za zaštitu podataka otvorila istragu o platformi X
S obzirom na to da će taj zahtjev zatrpati DOGE hiljadama takvih e-mailova, Musk se oslanja na AI da obradi odgovore i pomogne odrediti ko treba zadržati posao. Dio tog plana navodno je i namjera da se mnogi zaposlenici vlade zamijene sistemima vještačke inteligencije.
Još nije jasno kako će bilo koji od ovih sistema vještačke inteligencije izgledati ili na koji način funkcionišu – nešto što demokrate u Kongresu SAD-a zahtijevaju da se razjasni – ali stručnjaci upozoravaju da bi korištenje vještačke inteligencije bez temeljitog testiranja i verifikacije ovih alata moglo imati katastrofalne posljedice.
„Da bi se AI alati koristili odgovorno, moraju biti dizajnirani s određenom svrhom na umu. Moraju biti testirani i potvrđeni. Nije jasno da li se išta od tog ovdje radi“, kazao je Cary Coglianese, profesor prava i politologije na Univerzitetu u Pennsylvaniji.
Coglianese kaže da bi, ukoliko bi se vještačka inteligencija koristila za donošenje odluka o tome ko treba biti otpušten, on bi bio „veoma skeptičan“ prema tom pristupu. Dodaje da postoji veoma stvaran potencijal za greške, da bi vještačka inteligencija mogla biti pristrana, a postoji potencijal i za druge moguće probleme.
„To je izuzetno loša ideja. Ne znamo ništa o tome kako bi vještačka inteligencija donosila takve odluke [uključujući i informacije o tome kako je obučavana i o temeljnim algoritmima], o podacima na kojima bi se zasnivale te odluke, ili zašto bismo trebali vjerovati da je pouzdana“, kazala je Shobita Parthasarathy, profesorica javne politike na Univerzitetu u Michiganu.
Ovi razlozi za zabrinutost izgleda nisu prepreka za trenutnu vladu, posebno s Muskom, biznismenom milijarderom i bliskim savjetnikom američkog predsjednika Donalda Trumpa, na čelu tih napora.
Američki State Department, naprimjer, planira koristiti vještačku inteligenciju za skeniranje profila stranih državljana na društvenim mrežama u namjeri da detektuje pristalice Hamasa kako bi im mogli ukinuti vize. Američka vlada za sada nije bila transparentna kada je riječ o tome kako bi ovi sistemi mogli raditi.
Nezapažena šteta
„Trumpova administracija zaista je zainteresovana za korištenje vještačke inteligencije po svaku cijenu i ja bih voljela vidjeti njenu fer, pravednu i nepristranu upotrebu“, kazala je Hilke Schellmann, profesorica novinarstva na Univerzitetu u New Yorku i stručnjakinja za vještačku inteligenciju. „Velika količina štete mogla bi proći nezapaženo.“
Stručnjaci iz ove oblasti kažu da vladina upotreba vještačke inteligencije na razne načine može poći po zlu, zbog čega je treba uvoditi oprezno i savjesno. Coglianese kaže da su vlade širom svijeta, uključujući Nizozemsku i Veliku Britaniju, imale probleme s loše implementiranim AI sistemima koji mogu praviti greške ili pokazivati pristranost, te su kao rezultat toga, naprimjer, nepravedno uskratili građanima socijalne usluge koje su im potrebne.
Savezna država Michigan u SAD-u imala je problem s vještačkom inteligencijom koja je korištena za otkrivanje prevara u svom sistemu za nezaposlenost kada je netačno identifikovala hiljade slučajeva navodne prevare. Mnogi od onih kojima su uskraćene naknade suočili su se s teškim posljedicama, uključujući višestruke kazne i optužbe za prevaru. Ljudi su bili hapšeni, a neki su čak morali podnijeti zahtjev za bankrot. Nakon pet godina država je priznala da je sistem bio neispravan, a godinu dana kasnije vratila je 21 milion dolara stanovnicima koji su pogrešno optuženi za prevaru.
„Zvaničnici koji kupuju i koriste ove tehnologije uglavnom znaju veoma malo o tome kako one funkcionišu, o njihovim pristranostima, ograničenjima i greškama“, kazala je Parthasarathy. „Iz razloga što siromašnije i na druge načine marginalizirane zajednice imaju najviše kontakta s vladama kroz socijalne usluge [kao što su naknade za nezaposlene, starateljstvo, provođenje zakona], njih najviše pogađa problematična vještačka inteligencija.“
Vještačka inteligencija je, također, uzrokovala probleme vladi kada je korištena u sudovima da odredi stvari poput zadovoljava li neko kriterije za uvjetnu kaznu ili u policiji kada je korištena da predvidi gdje će se vjerovatno desiti krivično djelo.
Schellmann je kazala da vještačku inteligenciju koju koristi policija tipično obučavaju na historijskim podacima iz tih odjela, i da to može dovesti do pojave da vještačka inteligencija preporučuje pojačano policijsko prisustvo u područjima u kojima je ono već odavno prisutno, posebno u zajednicama tamnije puti.
Vještačka inteligencija ništa ne razumije
Jedan od problema je, kada je riječ o potencijalnom korištenju vještačke inteligencije da zamijeni radnike u Federalnoj vladi, taj što postoje razne vrste poslova u vladi koje zahtijevaju specifične vještine i znanje. IT stručnjak u Ministarstvu pravde može imati potpuno drugačiji posao od onoga u Ministarstvu poljoprivrede, naprimjer, iako nominalno imaju isti naziv radnog mjesta. Program vještačke inteligencije bi, stoga, morao biti kompleksan i temeljito obučen da bi mogao obavljati osrednji posao zamjene radnika čovjeka.
„Mislim da ne možete nasumično ukinuti ljudima radna mjesta i potom ih zamijeniti vještačkom inteligencijom“, kazao je Coglianese. „Zadaci koje su ti ljudi obavljali često su izuzetno specijalizirani i specifični.“
Schellmann je kazala da se vještačka inteligencija može koristiti za obavljanje onih dijelova nečijeg posla koji su predvidivi ili repetitivni, ali da ne možete u potpunosti nekoga zamijeniti. To bi teoretski bilo moguće ako biste godinama razvijali prave AI alate da rade mnoge vrste poslova – što je veoma težak zadatak, a ne ono što vlada trenutno radi.
„Ti radnici su zaista stručni i dubinski razumiju stvari, što AI ne razumije. Vještačka inteligencija, zapravo ništa ne ‘razumije'“, kazala je Parthasarathy. „To je upotreba matematičkih metoda za pronalaženje obrazaca, temeljenih na historijskim podacima. I za to vjerovatno ima ograničenu upotrebnu moć, i moguće je da učvršćuje historijske pristranosti.“
Administracija bivšeg predsjednika Josepha Bidena izdala je izvršnu uredbu 2023. fokusiranu na odgovornu upotrebu vještačke inteligencije u vladi i kako će ona biti testirana i verificirana, ali tu uredbu je poništila Trumpova administracija u januaru. Schellmann smatra da je zbog tog manje vjerovatno da će vještačka inteligencija biti korištena na odgovoran način u vladi ili da će istraživači biti u stanju razumjeti na koji način se ona koristi.
Imajući na umu sve već rečeno, ako se vještačka inteligencija razvija odgovorno, može biti veoma korisna. Vještačka inteligencija može obavljati repetitivne zadatke pa se radnici mogu fokusirati na važnije stvari ili može pomoći radnicima da riješe probleme s kojima se muče. No, potrebno je dati dovoljno vremena da bude implementirana na pravi način.
„Ne želim reći da ne možemo koristiti alate vještačke inteligencije mudro“, kazao je Coglianese. „Međutim, vlade zastrane kada pokušavaju požurivati i ubrzavati stvari bez odgovarajućeg javnog doprinosa i temeljite validacije i provjere kako algoritam zapravo funkcioniše.“