AI aplikacija za transkripciju, koju koriste i bolnice, izmišlja rečenice
Alat ‘Whisper’, kojeg je OpenAI pri lansiranju reklamirao da ‘radi poput čovjeka’, zapravo ‘halucinira’ i ubacuje u tekst rasne komentare, nasilnu retoriku, čak i izmišljene medicinske tretmane.

Aplikacija za transkripciju govora Whisper, koja radi pomoću umjetne inteligencije (AI) tehnološkog diva OpenAI, sklona je tokom rada dopisivati u tekst i cijele izmišljene rečenice, utvrdili su softverski inženjeri, programeri i akademski istraživači.
Prema njihovim navodima, na koje se poziva AP, taj alat kojeg je OpenAI pri lansiranju reklamirao da „radi tačno poput čovjeka“, zapravo „halucinira“ i ubacuje u tekst rasne komentare, nasilnu retoriku, čak i izmišljene medicinske tretmane.
Nastavite čitati
list of 4 itemsAmeričke vlasti istražuju je li DeepSeek koristio ‘zabranjene’ čipove
Kineski DeepSeek pretekao ChatGPT
Kineski ‘DeepSeek’ oborio cijenu dionica američkih tehnoloških divova
Stručnjaci kažu da su takve izmišljotine problematične jer se Whisper koristi u nizu industrija širom svijeta za prevođenje i transkripciju intervjua, generiranje teksta u popularnim potrošačkim tehnologijama i kreiranje titlova za videosnimke.
Još više zabrinjava, kažu oni, žurba medicinskih centara da koriste takve alate za transkripciju konsultacija pacijenata s ljekarima, uprkos upozorenjima kompanije OpenAI da se taj alat ne smije koristiti u „domenima visokog rizika“.
Puni obim problema je teško uočiti, ali istraživači i inženjeri kažu da su često nailazili na „halucinacije“ Whispera. Jedan istraživač Univerziteta u Michiganu, koji je proveo studiju, tvrdi da je našao „halucinacije“ u gotovo 80 posto transkripcija koje je pregledao.
Greške koje mogu imati teške posljedice
Jedan inženjer za mašinsko učenje rekao je da je odmah otkrio „halucinacije“ u polovini većoj od 100 sati transkripcija koje je analizirao, a jedan programer da je „halucinacije“ našao u gotovo svakom od 26.000 transkripata koje je napravio pomoću Whispera.
„Takve greške mogu imati teške posljedice, posebno u bolnicama“, rekla je Alondra Nelson, profesorica Instituta za napredne tehnologije u Princetonu, koja je do prošle godine vodila Kancelariju Bijele kuće za nauku i tehnologiju. „Niko ne želi pogrešnu dijagnozu“.
Rasprostranjenost „halucinacija“ navela je stručnjake, aktiviste i bivše zaposlenike u kompaniji OpenAI da pozovu američku administraciju da razmotri propise o umjetnoj inteligenciji. U najmanju ruku, rekli su, OpenAI treba riješiti problem.
Glasnogovornik OpenAI-ja je rekao da kompanija kontinuirano proučava kako da smanji „halucinacije“ i da cijeni nalaze istraživača, dodajući da OpenAI u ažuriranje modela uključuje povratne informacije.
Whisper je integriran u neke verzije vodećeg chatbota ChatGPT OpenAI-ja i ugrađen u „clowd“ ponudu kompanija Oracle i Microsoft koje opslužuju hiljade kompanija širom svijeta. Također se koristi za transkripciju i prevođenje teksta na više jezika, prenosi Beta.