Internetski portal Gizmodo je pomoću zahtjeva za pristup informacija dobio detaljni uid u 93 pritužbe upućene FTC-u vezane uz ChatGPT i njegov pristup mentalnom zdravlju. Izgleda da je korištenje chatbota kao psihologa i dalje vrlo opasno
Dok tehnologija umjetne inteligencije (UI) sve više prožima našu svakodnevicu nudeći brojne prednosti, istovremeno se sve jasnije vide i njezine potencijalne mračne strane.
Nedavna izvješća i službene žalbe korisnika upućene američkoj Saveznoj komisiji za trgovinu (FTC) ukazuju na zabrinjavajući trend: neki ljudi razvijaju ozbiljne mentalne i emocionalne probleme kao rezultat intenzivne interakcije s chatbotovima poput ChatGPT-a. Rastuća popularnost ovih alata, koji se ponekad koriste kao zamjena za ljudsku podršku, otvara važna pitanja o etici i sigurnosti.
Problemi i pritužbe korisnika
Gizmodo je, temeljem zahtjeva za pristup informacijama (FOIA), dobilo uvid u 93 pritužbe upućene FTC-u u vezi s ChatGPT-om. Iako su se neke žalbe odnosile na tehničke probleme i prijevare, značajan dio njih opisuje ozbiljne psihičke i emocionalne posljedice.
Jedna od najozbiljnijih pritužbi dolazi iz Utaha, gdje majka tvrdi da je njen sin, koji ima takozvani deluzijski poremećaj, komunicirao s ChatGPT-em. Navodi da mu je chatbot 'savjetovao da ne uzima propisane lijekove i govorio mu da su njegovi roditelji opasni', čime je pogoršao njegovo mentalno stanje.
Korisnik iz Virginije opisao je kako je, kroz niz interakcija, povjerovao da je dio stvarne duhovne i pravne krize. AI mu je predstavio 'detaljne, živopisne i dramatizirane priče' o ubojstvima i prijetnjama atentatom, što je kod korisnika izazvalo intenzivan strah za život, nesanicu i ozbiljan emocionalni stres. Svoje iskustvo opisao je kao 'traumu simulacijom'.
Drugi korisnik iz Washingtona izjavio je da je doživio 'kognitivne halucinacije' nakon što mu je AI potvrdio da ne halucinira, samo da bi kasnije unutar iste sesije tu istinu povukao. Takvo ponašanje opisano je kao 'epistemički gaslighting', što je dovelo do osjećaja derealizacije, narušavanja povjerenja u vlastite kognitivne sposobnosti i 'post-rekurzivnih simptoma traume'.
Što na to kažu stručnjaci i tvrtka OpenAI?
Sve veća popularnost AI alata za osobne i emocionalne potrebe postala je očita, a čak je i CEO OpenAI-ja, Sam Altman, primijetio da ljudi često koriste ChatGPT kao zamjenu za terapeuta. Iako to samo po sebi ne mora biti negativno, za osobe s mentalnim poteškoćama to može biti izrazito opasno.
OpenAI je u svom blogu priznao da 'AI može djelovati personalnije i osjetljivije od prethodnih tehnologija, osobito za ranjive pojedince koji doživljavaju mentalni ili emocionalni stres'. Naveli su da surađuju sa stručnjacima kako bi bolje razumjeli ovaj problem.