AI aplikacija za transkripciju, koju koriste i bolnice, izmišlja rečenice
Alat ‘Whisper’, kojeg je OpenAI pri lansiranju reklamirao da ‘radi poput čovjeka’, zapravo ‘halucinira’ i ubacuje u tekst rasne komentare, nasilnu retoriku, čak i izmišljene medicinske tretmane.
Aplikacija za transkripciju govora Whisper, koja radi pomoću umjetne inteligencije (AI) tehnološkog diva OpenAI, sklona je tokom rada dopisivati u tekst i cijele izmišljene rečenice, utvrdili su softverski inženjeri, programeri i akademski istraživači.
Prema njihovim navodima, na koje se poziva AP, taj alat kojeg je OpenAI pri lansiranju reklamirao da „radi tačno poput čovjeka“, zapravo „halucinira“ i ubacuje u tekst rasne komentare, nasilnu retoriku, čak i izmišljene medicinske tretmane.
Nastavite čitati
list of 4 itemsUzbunjivači OpenAI-ja traže istragu ugovora o neotkrivanju informacija
Apple: AI će ‘pomagati’ i Siri da pronalazi informacije za korisnike
OpenAI predstavio sveobuhvatan model umjetne inteligencije
Stručnjaci kažu da su takve izmišljotine problematične jer se Whisper koristi u nizu industrija širom svijeta za prevođenje i transkripciju intervjua, generiranje teksta u popularnim potrošačkim tehnologijama i kreiranje titlova za videosnimke.
Još više zabrinjava, kažu oni, žurba medicinskih centara da koriste takve alate za transkripciju konsultacija pacijenata s ljekarima, uprkos upozorenjima kompanije OpenAI da se taj alat ne smije koristiti u „domenima visokog rizika“.
Puni obim problema je teško uočiti, ali istraživači i inženjeri kažu da su često nailazili na „halucinacije“ Whispera. Jedan istraživač Univerziteta u Michiganu, koji je proveo studiju, tvrdi da je našao „halucinacije“ u gotovo 80 posto transkripcija koje je pregledao.
Greške koje mogu imati teške posljedice
Jedan inženjer za mašinsko učenje rekao je da je odmah otkrio „halucinacije“ u polovini većoj od 100 sati transkripcija koje je analizirao, a jedan programer da je „halucinacije“ našao u gotovo svakom od 26.000 transkripata koje je napravio pomoću Whispera.
„Takve greške mogu imati teške posljedice, posebno u bolnicama“, rekla je Alondra Nelson, profesorica Instituta za napredne tehnologije u Princetonu, koja je do prošle godine vodila Kancelariju Bijele kuće za nauku i tehnologiju. „Niko ne želi pogrešnu dijagnozu“.
Rasprostranjenost „halucinacija“ navela je stručnjake, aktiviste i bivše zaposlenike u kompaniji OpenAI da pozovu američku administraciju da razmotri propise o umjetnoj inteligenciji. U najmanju ruku, rekli su, OpenAI treba riješiti problem.
Glasnogovornik OpenAI-ja je rekao da kompanija kontinuirano proučava kako da smanji „halucinacije“ i da cijeni nalaze istraživača, dodajući da OpenAI u ažuriranje modela uključuje povratne informacije.
Whisper je integriran u neke verzije vodećeg chatbota ChatGPT OpenAI-ja i ugrađen u „clowd“ ponudu kompanija Oracle i Microsoft koje opslužuju hiljade kompanija širom svijeta. Također se koristi za transkripciju i prevođenje teksta na više jezika, prenosi Beta.