Vještačka inteligencija bi mogla ugroziti prava migranata
Hoće li vještačka inteligencija samo automatizovati diskriminaciju, sumnju i nasilje koje Evropska unija upražnjava prema onima koji traže zaštitu i novi život na evropskoj teritoriji.

Kada je prošlog leta grupa sirijskih i palestinskih izbeglica ostala zarobljena na jednom ostrvu, na granici između Grčke i Turske, grčkim vlastima je trebalo više od 10 dana da pošalju pomoć. Tvrdili su da ne mogu da lociraju migrante, iako su dobili njihove tačne geografske koordinate.
Neverovatna tvrdnja grčke obalske straže demantovana je kasnije istraživanjem novinara Deutsche Wellea, što se pokazalo kao savršen primer olakog laganja grčkih vlasti, ali i selektivne upotrebe tehnologije nadzora na granicama širom Evropske unije.
Još jedan slučaj selektivne upotrebe tehnologije nadzora dogodio se četiri meseca kasnije. Zapravo, u decembru 2022. godine, nevladina organizacije Human Rights Watch i organizacija Border Forensics, koja se bavi istraživanjem i dokumentovanjem nasilja nad migrantima, optužile su Frontex, Evropsku agenciju za graničnu i obalsku stražu, da koristi svoje dronove i avione kako bi čamce sa izbeglicama locirala i prijavljivala libijskim graničarima.
S obzirom na ova dva nepovezana događaja, može se zaključiti da je ista tehnologija zanemarena u slučaju kada je mogla da spasi živote, dok je apsolutno iskorišćena kako bi odbila tražioce azila. U oba slučaja, reč je o kršenju osnovnih prava osoba za koje se smatra da su nepoželjne, a samim tim, evropska agencija Frontex postala je saučesnik nasilja nad migrantima koji oni trpe po povratku u Libiju.
Nedovoljno zakonodavstvo
Caterina Rodelli, analitičarka pri organizaciji Access Now, koja se bavi zaštitom digitalnih građanskih prava, kaže da propisi postoje, ali ne obuhvataju sve vrste ljudskih prava koja mogu biti povređena. Ako bi uzeli na primer opštu uredbu o zaštiti podataka (GDPR), mnogi nadzorni sistemi zasnovani na veštačkoj inteligenciji obrađuju podatke, ali GDPR štiti samo privatnost i podatke osobe, dok danas svedočimo kršenju na različitim nivoima, od diskriminacije do kršenje prava na azil ili prava na pravično suđenje.
Organizacija Access Now je dio koalicije koja se bori da regulativa o veštačkoj inteligenciji poštuje temeljna prava svih, uključujući i one ljude koji su prisiljeni da ilegalno dođu do zemalja Evropske unije. Kroz kampanju Protect Not Surveil (Zaštiti, a ne nadziri), aktivisti su upozorili brojne nedostatke predloga zakona o veštačkoj inteligenciji koji je Evropska unija izglasala 14. juna.
Takođe, pre nego što je ovaj zakon izglasan, nevladina organizacija Amnesty International uputila je apel evropskim poslanicima, kada su istakli da buduća regulativa mora da zaštiti podjednako sve ljude od štetne upotrebe veštačke inteligencije. Tada su upozorili da različiti tretman primene zakona na osnovu migrantskog statusa apsolutno ne sme biti opravdan i predstavljao bi višestruko kršenje obaveza Evropske unije u vezi sa ljudskim pravima.
U tom pismu apela zahtevala se zabrana novih informaciono-tehnoloških otkrića u četiri oblasti koje se smatraju nepodudarnim s ljudskim pravima migranata, izbeglica i tražilaca azil. To uključuje automatizovane sisteme procene i profilisanja rizika na osnovu prošlosti osobe, zatim prediktivne analitičke sisteme korišćene za proučavanje mogućih migracionih tokova, kao i detektore laži koji se oslanjaju na veštačku inteligenciju, te prepoznavanje lica.
Automatizovana pristranost
Sistemi veštačke inteligencije mogu potencijalno prikupiti mnogo više podataka o osobi i koristiti ih za izradu njenog profila. Na primer, mogu se beležiti prehrambene preference putnika tokom leta i videti da li je određeni putnik kupio halal ili neki drugi obrok, čime se može zaključiti kojoj religiji pripada. Ovi podaci zatim mogu biti prosleđeni od aviokompanija do graničnih kontrola koje ih zatim unose u sistem za profilisanje potencijalnih migranata ili tražilaca azila.
Međutim, kako objašnjava Mher Hakobyan, savetnik za regulisanje veštačke inteligencije u Amnesty Internationalu, čak i uz prisustvo ovakvih sistema, koji mogu već biti u funkciji u raznim zemljama, odluka o azilu ili vizi uvek mora da ostane u nadležnosti procene ljudskog faktora. Takođe problematičnim smatra sisteme koji na osnovu ekonomskih i geopolitičkih podataka predviđaju poreklo i pravac migracionih tokova.
Takav sistem može biti koristan za pravilno upravljanje fenomenom, ali istovremeno može biti oružje koje daje graničnoj policiji alate za sprovođenje odbijanja, što je protivno međunarodnom pravu i već se dešava u nekim evropskih zemalja čak i bez pomoći veštačke inteligencije.
Ova nevladina organizacija posebno je ukazala na problem retroaktivnog prepoznavanja lica, tj. mogućnost povezivanja slike osobe sa snimcima sa kamera za nadzor na granicama Evropske unije. Reč je o tehnologiji koja se koristi radi brze provere da li se radi o nekome ko je ilegalno ušao na teritoriju Unije. Postoje slučajevi u Sjedinjenim Američkim Državama gde su ljudi bili uhapšeni i optuženi zbog grešaka sistema. To se više puta dogodilo osobama koje su učestvovale u protestima pokreta Black Lives Matter, kadae su pogrešno optužene za zločine. Za migrantae, bez novca i znanja lokalnog jezika, takve greške bile bi tragične.
Zabrana prepoznavanja lica, rizik za migrante ostaje
Evropski parlament je 14. juna ove godine usvojio zakon koji će regulisati svaki proizvod ili uslugu koja koristi sistem veštačke inteligencije i koji bi mogao da stupi na snagu početkom 2025. godine.
Prvi ovakav zakon o veštačkoj inteligenciji predviđa pravila za primenu AI u uslovima raznih nivoa rizika, od minimalnog do neprihvatljivog. Dok će biti zabranjeni AI sistemi neprihvatljog rizika koji se smatraju pretnjom jer na neprihvatljiv način po ljude analiziraju, predviđaju i utiču na društveno ponašanje ljudi. To su sistemi koji klasifikuju ljude na osnovu ponašanja, socioekonomskog statusa, ličnih karakteristika, te sistemi biometrijske identifikacije u realnom vremenu i daljinski, kao što je prepoznavanje lica. Međutim, pre nego što je zakon izglasan, stranke desnog centra dodale su amandman kojim se dozvoljava upotreba tih sistema u situacijama kao što su traganje za nestalom decom, identifikacija osumnjičenih zločinaca i sprečavanje terorističkih napada.
Iako je Amnesty International pozdravio odluku Evropskog parlamenta o zabrani zloupotrebe tehnologija masovnog nadzora, oni naglašavaju da je sada važno da države članice Unije obezbede da se razvoj, prodaja, korišćenje i izvoz tehnologija prepoznavanja lica i drugih oblika nadzora zabrane tokom predstojećih pregovora o konačnoj verziji zakona o veštačkoj inteligenciji.
Evropski parlament, međutim, nije zabranio automatizovane sisteme procene rizika i profilisanja, kao ni sisteme predviđanja koji se koriste za ograničavanje, zabranu i sprečavanje kretanja na granicama.
Naredni meseci će biti ključni u razumevanju da li će nova regulativa o veštačkoj inteligenciji istinski štititi osnovna prava svih ljudi ili će samo automatizovati diskriminaciju, sumnju i nasilje koje Evropska unija upražnjava prema onima koji traže zaštitu i novi život na evropskoj teritoriji.