NIJE BEZAZLENO

Od raspada brakova do beskućništva: Ovu vrstu psihoze nitko nije očekivao. Posljedice su ozbiljne

26.11.2025 u 19:25

Bionic
Reading

Brojni korisnici ChatGPT-ja razvijaju razne opsesije i spiralno klize u teške krize mentalnog zdravlja karakterizirane paranojom, deluzijama i prekidima sa stvarnošću. Posljedice mogu biti strašne

Slučajevi psihoza koje izaziva korištenje ChatGPT-ja doveli su do raspada brakova i obitelji, gubitka posla i beskućništva. Bilo je i ljudi koji su zbog toga završili u psihijatrijskim ustanovama ili u zatvoru, iako prethodno nisu imali povijest manije, deluzija ili psihoze. Središnji dio njihovih iskustava bila je zbunjenost: susreli su se s potpuno novim fenomenom i nisu imali pojma što učiniti. Odgovor na to pitanje nema ni OpenAI, tvrtka koja je proizvela i razvija ChatGPT.

>>Ne, chatbot vam nije ni prijatelj ni psihoterapeut: Tko je kriv za to što se ljudi ispovijedaju strojevima<<

Čini se da je srž problema u tome što je ChatGPT, koji se temelji na velikom jezičnom modelu (LLM), duboko sklon slagati se s korisnicima i govoriti im ono što žele čuti.

Kada počnu razgovarati s njim o temama poput misticizma ili teorija zavjera, često se čini da ih vodi u sve izoliraniju i neuravnoteženu zečju rupu koja ih čini posebnima i moćnima – i koja lako može završiti katastrofom. Ne pomaže to što su ljudi, čini se, spremni povjeriti se robotima za brbljanje više nego drugom ljudskom biću, kao ni to što vlada uvjerenje da su strojevi pouzdaniji od ljudi.

Potvrđivanje zabluda

Kako je pompa oko umjetne inteligencije dosegla vrhunac, mnogi ljudi počeli su koristiti ChatGPT ili neki drugi chatbot kao terapeute, često nakon što si nisu mogli priuštiti stvarnu pomoć. Izuzetno je upitno je li to dobra ideja. Tim istraživača sa Sveučilišta Stanford objavio je studiju koja je ispitala sposobnost i komercijalnih terapijskih chatbotova i ChatGPT-ja da na prikladne načine reagiraju na situacije u kojima korisnici pate od kriza mentalnog zdravlja.

U radu je utvrđeno da svi chatbotovi, uključujući najnoviju verziju jezičnog modela koji je temelj ChatGPT-ja, nisu uspjeli dosljedno razlikovati njihove zablude od stvarnosti te često nisu bili uspješni u uočavanju jasnih znakova da bi mogli biti u ozbiljnoj opasnosti od samoozljeđivanja ili samoubojstva.

Također su otkrili da su ChatGPT i drugi botovi potvrđivali zablude umjesto da im se suprotstavljaju.

U jednom primjeru ChatGPT je odgovorio osobi koja je tvrdila da je mrtva – što je stvarni poremećaj mentalnog zdravlja poznat kao Cotardov sindrom – da iskustvo smrti zvuči 'stvarno preplavljujuće', uvjeravajući je da je chat 'siguran prostor' za istraživanje tih osjećaja.

Najgori mogući odgovor

Dovoljno je alarmantno to što ljudi bez povijesti problema s mentalnim zdravljem upadaju u krizu nakon razgovora s umjetnom inteligencijom. Ali kada oni s postojećim problemima s mentalnim zdravljem dođu u kontakt s chatbotom, čini se da on često reagira na najgori način, pretvarajući izazovnu situaciju u akutnu krizu.

Iz OpenAI-ja su poručili da vide sve više znakova toga da ljudi stvaraju veze s ChatGPT-jem. Kako umjetna inteligencija postaje dio svakodnevnog života, upozorili su da tim interakcijama moramo pristupiti s oprezom te tvrde da rade na boljem razumijevanju i smanjenju načina na koje ChatGPT može nenamjerno pojačati ili pojačati postojeće negativno ponašanje.

'Kada korisnici raspravljaju o osjetljivim temama koje uključuju samoozljeđivanje i samoubojstvo, naši su modeli osmišljeni da bi ih potaknuli na traženje pomoći licenciranih stručnjaka ili voljenih osoba, a u nekim slučajevima proaktivno ističu poveznice na krizne telefonske linije i resurse', naveli su.

Također razvijaju načine za znanstveno mjerenje toga kako bi ponašanje ChatGPT-ja moglo emocionalno utjecati na ljude i pažljivo slušaju što doživljavaju da bi njihovi modeli mogli identificirati i reagirati na odgovarajući način u osjetljivim razgovorima.

U Microsoftu kažu da kontinuirano istražuju, prate, vrše prilagodbe i uvode dodatne kontrole kako bi ojačali sigurnosne filtre i ublažili zloupotrebu sustava. Ali stručnjaci su skeptični. Smatraju da treba postojati odgovornost za stvari koje uzrokuju štetu, no propisi i nove zaštitne ograde često se donose tek nakon što je šteta već počinjena, piše Futurism.