ChatGPT daje terapiju, slijedi revolucija mentalnog zdravlja
Izgledi da umjetna inteligencija liječi mentalne bolesti izazivaju bezbroj etičkih i praktičnih pitanja.
Piše: Erin Hale
Utipkavanjem riječi “Imam anksioznost” u ChatGPT, OpenAI-jev revolucionarni chatbot vođen umjetnom inteligencijom počinje raditi gotovo odmah.
“Žao mi je što osjećate tjeskobu”, piše na ekranu.
“To može biti izazovno iskustvo, ali postoje strategije koje možete pokušati pomoći u upravljanju simptomima.”
Zatim dolazi numerirani popis preporuka: rad na opuštanju, fokusiranje na san, smanjenje kofeina i alkohola, odbacivanje negativnih misli i traženje podrške prijatelja i porodice.
Iako nije najoriginalniji savjet, nalikuje onome koji se može čuti u ordinaciji terapeuta ili pročitati na internetu u WebMD članku o tjeskobi – ne samo zato što ChatGPT odgovore crpi iz širokog internet prostranstva.
Sam ChatGPT upozorava da nije zamjena za psihologa ili savjetnika.
Ali, to nije spriječilo neke ljude da koriste platformu kao lične terapeute.
Potencijal u liječenju anksioznosti i depresije
U postovima na internetskim forumima kao što je Reddit korisnici su opisali svoja iskustva tražeći ChatGPT za savjet o ličnim problemima i teškim životnim događajima poput razvoda.
Neki su izjavili da je njihovo iskustvo s chatbotom jednako dobro ili bolje od tradicionalne terapije.
Nevjerovatna sposobnost ChatGPT-a da oponaša ljudski razgovor potaknula je pitanja o potencijalu generativne umjetne inteligencije ili liječenju stanja mentalnog zdravlja, posebno u regijama poput Azije, gdje su usluge mentalnog zdravlja rijetke i obavijene stigmom.
Neki entuzijasti AI-ja vide chatbotove kao najveće potencijale u liječenju blažih, uobičajenih stanja, kao što su tjeskoba (anksioznost) i depresija, čije standardno liječenje uključuje terapeuta koji sluša i potvrđuje pacijenta, kao i nudi praktične korake za rješavanje njegovih ili njezinih problema.
U teoriji, terapija umjetnom inteligencijom mogla bi ponuditi brži i jeftiniji pristup podršci od tradicionalnih službi za mentalno zdravlje, koje pate od manjka osoblja, dugih lista čekanja i visokih troškova te omogućuju oboljelima da zaobiđu osjećaj osuđivanja i srama, posebno u dijelovima svijeta gdje mentalna bolest ostaje tabu.
“Psihoterapija je jako skupa, pa čak i na mjestima kao što je Kanada, odakle sam ja, i drugim zemljama, liste čekanja su stvarno duge”, rekla je za Al Jazeeru Ashley Andreou, studentica medicine koja se fokusira na psihijatriju na Univerzitetu Georgetown.
“Ljudi nemaju pristup nečemu što dopunjuje lijekove i što je liječenje problema mentalnog zdravlja utemeljeno na dokazima, pa mislim da moramo povećati pristup te da će generativna umjetna inteligencija s certificiranim zdravstvenim stručnjakom povećati učinkovitost.”
Mogućnost da umjetna inteligencija pojača ili čak predvodi liječenje mentalnog zdravlja izaziva bezbroj etičkih i praktičnih pitanja.
Kreću se od toga kako zaštititi lične podatke i medicinske podatke, do pitanja o tome hoće li kompjuterski program ikada biti sposoban suosjećati s pacijentom ili prepoznati znakove upozorenja kao što je rizik od samopovređivanja.
Nepredvidivi, netačni ili uznemirujući odgovori
Dok je tehnologija koja stoji iza ChatGPT-a još uvijek u povojima, platforma i njeni konkurenti chatbotovi bore se s ljudima u određenim područjima, kao što je prepoznavanje ponovljenih pitanja, i mogu dati nepredvidive, netačne ili uznemirujuće odgovore kao odgovor na određene upite.
Do sada je upotreba umjetne inteligencije u namjenskim aplikacijama za mentalno zdravlje bila ograničena na sisteme “temeljene na pravilima” u aplikacijama za dobrobit kao što su Wysa, Heyy i Woebot.
Iako ove aplikacije oponašaju aspekte terapeutskog procesa, koriste određeni broj kombinacija pitanja i odgovora koje je odabrao čovjek, za razliku od ChatGPT-a i drugih platformi temeljenih na generativnoj umjetnoj inteligenciji, koja proizvodi originalne odgovore koji se praktički ne mogu razlikovati od ljudskog govora.
Generativna umjetna inteligencija i dalje se smatra previše “crnom kutijom” – odnosno toliko složenom da ljudi u potpunosti ne razumiju njene procese donošenja odluka – da bi se koristila u okruženju mentalnog zdravlja, rekao je Ramakant Vempati, osnivač indijske kompanije Wysa.
“Očito postoji mnogo literature o tome kako AI chat doživljava procvat s lansiranjem ChatGPT-a, i tako dalje, ali je važno naglasiti da je Wysa vrlo specifična za domenu i izgrađena vrlo pažljivo imajući na umu kliničke sigurnosne ograde”, kazao je Vempati za Al Jazeeru.
“Mi ne koristimo generativni tekst, ne koristimo generativne modele. Ovo je konstruirani dijalog, tako da je skripta unaprijed napisana i potvrđena kroz skup ključnih sigurnosnih podataka koje smo testirali za odgovore korisnika.”
Promjena načina na koji pacijent razmišlja
Zaštitni znak Wysa je pingvin s kojim korisnici mogu razgovarati, iako su ograničeni na određeni broj pisanih odgovora, za razliku od dijaloga slobodnog oblika ChatGPT-a.
Plaćeni pretplatnici na Wysa također se usmjeravaju ljudskom terapeutu ako njihovi upiti eskaliraju.
Heyy, razvijen u Singapuru, i Woebot, sa sjedištem u Sjedinjenim Američkim Državama, slijede sličan model temeljen na pravilima i oslanjaju se na žive terapeute i robota-avatar chatbot za interakciju s korisnicima izvan ponude resursa poput vođenja dnevnika, tehnika svjesnosti i vježbi usmjerenih na uobičajeni problemi poput problema sa spavanjem i vezama.
Sve tri aplikacije crpe se iz kognitivne bihevioralne terapije, standardnog oblika liječenja anksioznosti i depresije, koji je usmjeren na promjenu načina na koji pacijent razmišlja i ponaša se.
Osnivačica Woebota Alison Darcy opisala je model aplikacije kao “vrlo složeno stablo odlučivanja”.
“Ovaj osnovni ‘oblik’ razgovora modeliran je prema tome kako kliničari pristupaju problemima, stoga su oni ‘stručni sistemi’ koji su posebno dizajnirani da repliciraju kako se kliničari mogu kretati kroz odluke tokom interakcije”, rekla je Darcy za Al Jazeeru.
Heyy korisnicima omogućuje interakciju s ljudskim terapeutom putem funkcije chata unutar aplikacije koja se nudi na nizu jezika, uključujući engleski i hindu, te nudi informacije i vježbe o mentalnom zdravlju.
Mogući veliki rizici za dobrobit ljudi
Osnivači aplikacija Wysa, Heyy i Woebot ističu da ne pokušavaju zamijeniti terapiju temeljenu na ljudima, već nadopuniti tradicionalne usluge i pružiti alat u ranoj fazi liječenja mentalnog zdravlja.
Nacionalna zdravstvena služba Velike Britanije, naprimjer, preporučuje Wysa kao usputnu stanicu za pacijente koji čekaju posjetu terapeutu.
Dok su ove aplikacije temeljene na pravilima ograničene u svojim funkcijama, industrija umjetne inteligencije i dalje je uglavnom neregulirana, uprkos zabrinutosti da bi to područje koje se brzo razvija moglo predstavljati velike rizike za dobrobit ljudi.
Nevjerovatna brzina razvoja umjetne inteligencije potaknula je izvršnog direktora Tesle Elona Muska i suosnivača Applea Stevea Wozniaka prošlog mjeseca da dodaju svoja imena hiljadama potpisnika otvorenog pisma u kojem se poziva na šestomjesečnu pauzu u obuci sistema umjetne inteligencije moćnijih od GPT-a 4, nastavak ChatGPT-a, kako bi se istraživačima dalo vremena da bolje shvate tehnologiju.
“Moćne AI sisteme treba razvijati tek kada budemo sigurni da će njihovi učinci biti pozitivni i da će se rizicima moći upravljati”, piše u pismu.
Ranije ove godine jedan je Belgijanac navodno počinio samoubistvo nakon što ga je na to potaknuo AI chatbot Chai, dok je kolumnist The New York Timesa opisao kako ga je Microsoftov chatbot Bing potaknuo da ostavi ženu.
Kina i Evropska unija poduzele najkonkretnije korake
Regulacija umjetne inteligencije bila je spora kako bi se uskladila s brzinom napretka tehnologije, a Kina i Evropska unija poduzele su najkonkretnije korake prema uvođenju zaštitnih ograda.
Kineska uprava za kibernetički prostor ranije ovog mjeseca objavila je nacrt propisa čiji je cilj osigurati da umjetna inteligencija ne proizvodi sadržaj koji bi mogao potkopati autoritet Pekinga.
Evropska unija radi na zakonodavstvu koje bi kategoriziralo umjetnu inteligenciju kao visokorizičnu i zabranjenu, reguliranu ili nereguliranu.
SAD tek treba predložiti federalne zakone za reguliranje umjetne inteligencije, iako se prijedlozi očekuju kasnije ove godine.
Trenutno ni ChatGPT, ni namjenske aplikacije za mentalno zdravlje, poput Wysa i Heyy, koje se općenito smatraju “wellness” uslugama, nisu regulirane od zdravstvenih regulatora kao što su Američka agencija za hranu i lijekove (FDA) ili Evropska agencija za lijekove (EMA).
Postoji ograničeno nezavisno istraživanje o tome može li umjetna inteligencija ikad nadmašiti aplikacije temeljene na pravilima koja su trenutno na tržištu kako bi samostalno ponudila tretman mentalnog zdravlja koji je na nivou tradicionalne terapije.
Da bi umjetna inteligencija odgovarala ljudskom terapeutu, morala bi biti u stanju ponovo stvoriti fenomen prenosa, gdje pacijent projicira osjećaje na svog terapeuta i oponaša vezu između pacijenta i terapeuta.
“U psihološkoj literaturi znamo da je dio učinkovitosti i ono što čini terapiju učinkovitom oko 40 do 50 posto učinka rezultat odnosa koji imate sa svojim terapeutom”, rekla je za Al Jazeeru Maria Hennessy, klinička psihologinja i vanredna profesorica na Univerzitetu James Cook.
“To čini veliki dio toga koliko su psihološke terapije učinkovite.”
Pronalazak najvrijednije namjene iza kulisa
Trenutni chatbotovi nisu sposobni za ovu vrstu interakcije, a ChatGPT-ove mogućnosti obrade prirodnog jezika, iako impresivne, imaju ograničenja, kazala je Hennessy.
“Na kraju krajeva, to je fantastičan kompjuterski program… To je sve”, dodala je.
Amelia Fiske, viša naučna saradnica na Institutu za historiju i etiku medicine Tehničkog fakulteta u Minhenu, smatra da mjesto umjetne inteligencije u liječenju mentalnog zdravlja u budućnosti možda neće biti ili/ili situacija – naprimjer, nadolazeća tehnologija mogla bi se koristiti u kombinaciji s ljudskim terapeutom.
“Važna stvar koju treba imati na umu jeste da, kad ljudi govore o korištenju umjetne inteligencije u terapiji, postoji ta pretpostavka da sve izgleda kao Wysa ili da sve izgleda kao Woebot, a ne treba”, rekla je Fiske za Al Jazeeru.
Neki stručnjaci vjeruju da bi umjetna inteligencija mogla pronaći najvrijednije namjene iza kulisa, poput provođenja istraživanja ili pomoći ljudskim terapeutima da procijene napredak svojih pacijenata.
“Ovi algoritmi kompjuterskog učenja bolji su od sistema stručnih pravila kada je u pitanju prepoznavanje uzoraka u podacima; vrlo je dobar u stvaranju asocijacija u podacima, a oni su, također, vrlo dobri u predviđanju podataka”, kazala je za Al Jazeeru Tania Manríquez Roa, etičarka i kvalitativna istraživačica na Institutu za biomedicinsku etiku i historiju medicine Univerziteta u Zurichu.
‘Algoritmi i umjetna inteligencija obećavaju’
“Može biti od velike pomoći u provođenju istraživanja o mentalnom zdravlju, a također može biti od velike pomoći u prepoznavanju ranih znakova recidiva, poput depresije, naprimjer, ili tjeskobe.”
Manríquez Roa rekla je da je skeptična da bi se umjetna inteligencija ikada mogla koristiti kao zamjena za kliničko liječenje.
“Ovi algoritmi i umjetna inteligencija na neki način obećavaju, ali također mislim da mogu biti vrlo štetni”, rekla je Manríquez Roa.
“Mislim da imamo pravo biti ambivalentni u pogledu algoritama i kompjuterskog učenja kada je u pitanju briga o mentalnom zdravlju, jer kada govorimo o zaštiti mentalnog zdravlja, govorimo o njezi i odgovarajućim standardima njege.”
“Kada razmišljamo o aplikacijama ili algoritmima, ponekad umjetna inteligencija ne rješava naše probleme i može stvoriti veće probleme”, dodala je.
“Moramo napraviti korak unatrag i razmisliti: Trebamo li algoritme uopće i, ako ih trebamo, kakvu vrstu algoritama ćemo koristiti?”, kazala je Manríquez Roa.