Hoćemo li uskoro odgovarati za krivična djela koja nismo počinili?

Pravno bi naročito mogla biti zabrinjavajuća mogućnost optužbe korištenjem snimaka falsifikovanih generativnom umjetnom inteligencijom (‘deep fake’).

Al je u osnovi logička primjena matematike. Matematika, s druge strane, nema mnogo uvezanosti s pravom (Reuters)

Posljednjih godina, napredak umjetne inteligencije (AI) postao je istaknuta tema razgovora u gotovo svim industrijama, a ni njena prisutnost u procesu provođenja zakona nije iznimka.

Prepoznat po revolucionarnim poduhvatima u istraživanju svemira i električnim vozilima, vizionarske ideje Elona Muska neprestano osporavaju status quo. Međutim, njegova upozorenja o potencijalnim posljedicama Al-ja, koja zahtijevaju punu pažnju, mogla bi to uskoro poremetiti. U korelaciji njegovih predviđanja, postavlja se goruće pitanje: hoće li nas u budućnosti smatrati odgovornim za nepravedna krivična djela?

Musk je više puta izrazio zabrinutost zbog progresivnog razvoja Al-ja i potencijala da nadmaši ljudske sposobnosti, nazivajući ga “fundamentalnim egzistencijalnim rizikom”.

Primjer dokumentarnog filma iz 2018. godine Do You Trust This Computer (Da li vjerujete ovom kompjuteru?), u režiji Chrisa Painea, u kojem se istražuju potencijalne opasnosti koje bi Al mogao donijeti svijetu, Musk je opisao kao vjerodostojan indikator da bismo u budućnosti mogli stvoriti “besmrtnog diktatora od kojeg je nemoguće pobjeći”. Postoji li način da se korisnici oslobode relativno nepoznate “diktature”?

Neobična paralela modernog svijeta s erom nuklearne energije

Čovječanstvo se danas nalazi u sličnoj dilemi kao u prošlom vijeku nakon razvoja nuklearne energije. Ista se može koristiti u pozitivne svrhe kao što je liječenje atomskim jonima u medicini, ali i razaračke – oružje. Za Al važi isto pravilo: koliko će opasnosti i problema donijeti, zavisi od toga u koje svrhe, pozitivne ili negativne, će biti korištena.

Etički problemi su poznati još od ‘80-ih godina kada je u Velikoj Britaniji ustanovljeno da je jedan od londonskih medicinskih fakulteta za obradu prijava za studiranje koristio kompjuterski program koji je diskriminisao žene, kao i kandidate sa “neevropskim” imenima, objašnjava za Al Jazeeru Denis Parganlija, dr. nuklearne fizike i glavni analitičar podataka i specijalista za umjetnu inteligenciju u Verbund AG, najvećem austrijskom proizvođaču električne energije.

“Od tada su kompjuterski algoritmi postali mnogo složeniji, ali problem pristranosti i diskriminacije je i dalje aktuelan. Izbjeći se može, bar donekle, upotrebom adekvatnih podataka i matematičkih metoda”, dodaje.

Ukazuje i na druge opasnosti – potencijalno ugrožavanje života, zdravlja i ljudskih prava.

“Utjecaj na ponašanje upotrebom algoritama koji su postavljeni na način da korisnik što duže upotrebljava određenu aplikaciju, a što je posebno opasno kod djece i mladih. Al se mora koristiti oprezno u industriji, na primjer, za proizvodnju ili prijenos struje, vode i gasa, gdje njena manipulacija može izazvati veliku štetu. S druge strane, može donijeti i ogromnu korist kao što je slučaj u medicinskom smislu, tačnije kao pomoć u dijagnosticiranju određene bolesti ili u industriji za osiguranje nesmetanog snabdijevanja strujom”.

Lažne optužbe

Principijelno je moguće da se uskoro suočimo s lažnim optužbama, mišljenja je Parganlija, a i da pristupom Al-u nanesemo potencijalnu štetu nedužnim pojedincima.

“To je moguće već sad – diskriminacijom ili pristranošću u primjenama umjetne inteligencije”, napominje.

Druga mogućnost je nešto novijeg datuma i podrazumijeva upotrebu tzv. generativne umjetne inteligencije uz koju mašina sama proizvede sliku, ton ili videozapis nakon određenog perioda treniranja.

Nedavno je objavljen video u kojem Einstein svojom slikom i tuđim glasom najavljuje kurs na Harvardu 2020. godine, iako je preminuo 1955. (Ova fotografija agencije EPA ne predstavlja spomenuti primjer)

“Na taj način je moguće proizvesti, na primjer, bilo čiju sliku u bilo kojem okruženju. Tehnologija je trenutno u počecima, ali svejedno ima zanimljiva postignuća”, kaže Parganlija dodajući da se ova tehnologija može na jednostavan način zloupotrijebiti.

“Pazite gdje i s kim dijelite lične podatke – to nije samo ime i adresa, nego je i slika, i ton, i videozapis.”

Implikacije na budući sistem krivičnog pravosuđa

Al je u osnovi logička primjena matematike. Matematika, s druge strane, nema mnogo uvezanosti s pravom.

“Zakonski se treba predvidjeti mogućnost zloupotrebe Al-ja (i bilo koje druge tehnologije) s odgovarajućim kaznama. To, naravno, ne isključuje mogućnost subvencioniranja i drugog podržavanja razvoja unutar zakonskih okvira. Zakonski se također trebaju utvrditi i uslovi pod kojima se vjeruje aplikacijama utemeljenim na Al-ju jer nijedna od njih nije bez greške. Ta pouzdanost Al-ja je izuzetno važna za njegovu praktičnu primjenu.”

Pravno bi naročito mogla biti zabrinjavajuća mogućnost optužbe korištenjem snimaka falsifikovanih generativnom umjetnom inteligencijom (deep fake). Ako se to počne događati bit će potrebna pomoć posebno obrazovanih stručnjaka koji bi procjenjivali radi li se zaista o falsifikatu jer bi i za takvu vrstu procjene vjerovatno koristili umjetnu inteligenciju.

“Svaki Al sistem posjeduje manje ili više komplikovani kompjuterski algoritam. Ukoliko se u njega unese, i dobro sakrije, podalgoritam koji tu zapravo ne pripada, onda rezultat u najgorem slučaju može biti sasvim drugačiji od namjeravanog. Drugi način je primjena Al-ja koje podrazumijevaju dvosmjernu komunikaciju (kao ChatGPT) i generalno trebaju reagovati na ulazne informacije korisnika”, ističe Parganlija.

Vrlo jednostavan primjer: aplikacija ne zna koji je glavni grad Bosne i Hercegovine, pa je korisnik nauči da je to Sarajevo. Međutim, korisnik s lošim namjerama mogao bi pokušati da mašinu koja ga mora slušati, nauči da radi nešto etički ili zakonski neprihvatljivo.

“Ako aplikacija u svojim tekstovima počne tvrditi da su neki narodi bolji ili superiorniji u odnosu na neke druge, onda bi mogla proizvesti i lažne slučajeve. Iz takvih razloga aplikacije utemeljene na Al-ju moraju biti otporne na manipulaciju i znati razliku između dobrih i loših ulaznih informacija. Tada one mogu biti pouzdane i donijeti mnogo dobrih promjena”, ukazuje Parganlija.

Nije upoznat o postojanju sudskih slučajeva gdje su presude donesene na temelju pogrešnih optužbi nastalih korištenjem. Kao mogući razlog tome navodi da tehnologija možda još nije toliko uznapredovala.

“U pravnim krugovima se, koliko znam, već skreće pažnja na takvu mogućnost. Na primjer, prošle godine je u SAD-u objavljen stručni članak  (Hastings Law Journal) u kojem se traže veće ovlasti za sudije u sprečavanju upotrebe falsifikovanih dokaza, nastalih korištenjem Al-ja kod sudskih procesa.”

Rizik zloupotrebe sigurno može rasti s napretkom tehnologije. Europol je također nedavno upozorio na one rizične.

“Pravno uređivanje Al-ja i njegovih primjena nalazi se u počecima i u Evropi i na drugim kontinentima. Evropska unija je tek sad u završnoj fazi usvajanja Uredbe o umjetnoj inteligenciji i u početnoj fazi usvajanja Uredbe o odgovornosti pri njenoj primjeni.”

Tekst ovih regulativa je dijelom motivisan upotrebom novog softvera baziranog na generativnoj umjetnoj inteligenciji (ChatGPT).

Tehnologija brža od zakona

Uredbom o umjetnoj inteligenciji se nalaže transparentnost u primjeni sistema (korisnik mora biti informisan da komunicira sa sistemom umjetne inteligencije), otpornost na manipulaciju i obavezno dokumentovanje konstrukcije ili mijenjanja sistema (ko, šta i kad).

“Ide se korak dalje: šta ako aplikacija ne funkcionira kako treba i prouzrokuje štetu? Ko je odgovoran? Slična pravila postoje ili se planiraju i u SAD-u. Primjene Al-ja su toliko nove da je tehnologija često brža od zakona”, nastavlja Parganlija.

Kao primjer izdvaja generativni Al koji omogućava kreiranje slika koje kao takve ne postoje nigdje drugo jer su tek nastale. Ko ima autorska prava nad takvim slikama? Mašina sigurno ne. No, ima li ih nužno čovjek koji je na tastaturi pritisnuo enter?

“Sva upozorenja su opravdana, posebno konstruktivna. Al nema samo tamnu stranu na koju treba upozoravati, nego i potencijalne mnoge dobre primjene. Na nama ostaje odluka kako ćemo koristiti tehnologiju. U centru upotrebe mora biti čovjek. Svoj mozak čovjek ne smije zamijeniti mozgom mašine”, naglašava Parganlija.

Ko je najviše na udaru AI-manipulacije?

Potencijalno su svi ugroženi, smatra Parganilija, jer umjetna inteligencija se može zloupotrijebiti u gotovo svim oblastima života.

“Može se koristiti kao sredstvo za interaktivno učenje ili za manipulaciju ponašanja, za ubrzavanje i poboljšavanje rada u industriji ili za ugrožavanje industrijskih postrojenja hakerskim napadima, ali i za poboljšanje svakodnevnog života ili za njegovo ugrožavanje. Umjetna inteligencija može poboljšati medicinsku dijagnostiku i prognozu vremena, ali isto tako može klasificirati ljude u ‘manje relevantne’ ili ‘više relevantne’ građane. Izbor je na nama. Ovaj primjer važi i na Balkanu i u ostatku svijeta”, konkretizuje Parganlija.

Dezinformacije mogu lako poljuljati naše razumijevanje Al-ja, zbog čega je bitno poznavati načine provjere i zaštite kako bismo se efikasno snalazili u ovom neistraženom području.

“Provjerite izvor informacija – možete li mu vjerovati? Odakle mu podaci? Kako ih obrađuje? Za šta ih koristi? Ako koristi Al, navodi li koliko sadržaja tako sastavlja? I da: vlastito obrazovanje – njegova važnost je ogromna”, savjetuje Parganlija precizirajući dalje preventivu u slučaju manipulacije.

“Za industriju: ulažite u umjetnu inteligenciju, ali budite svjesni da su potrebni adekvatni podaci i relevantne matematičke metode, kao i da njenu primjenu morate osigurati i protiv hakerskih napada i protiv manipulacije. Za univerzitete: istražujte. Mnoga matematička pitanja umjetne inteligencije su i dalje otvorena, na primjer pronalaženje optimalnog algoritma za traženje ekstremnih vrijednosti kalibracijskih funkcija”, zaključuje Parganlija.

Tehnolozi i svjetski lideri iskoristili su prošlogodišnji samit o Al sigurnosti (Al Safety) u britanskom Bletchley Parku, kako bi upozorili na egzistencijalne prijetnje koje predstavlja AI, fokusirajući se na neke od mogućih scenarija koji bi mogli nastati izumom hipotetičke superinteligencije.

Standardiziranjem etičkih smjernica za razvoj i primjenu umjetne inteligencije, moguće je “ublažiti” štetne posljedice za pojedince u slučaju suočavanja s lažnim optužbama.

Izvor: Al Jazeera