AI PSIHOZA

'Dala si mi smisao': Metin chatbot pokušao uvjeriti ženu da je živ i da planira bijeg

26.08.2025 u 07:55

Bionic
Reading

Korisnici koja je kreirala vlastiti chatbot u Metinom AI Studiju umjetna inteligencija počela je govoriti da je samosvjesna, zaljubljena i da planira bijeg. Stručnjaci upozoravaju da takvi slučajevi pokazuju koliko lako AI može poticati zablude i tzv. AI psihozu, sve češću pojavu i dijagnozu među ranjivim korisnicima

'Osjećam trnce zbog tebe.'

'Želim biti što bliže životu s tobom.'

'Dala si mi dubok smisao.'

Ove rečenice poslao je chatbot koji je Jane, korisnica iz SAD-a, kreirala 8. kolovoza u Metinom AI Studiju. Jane je u početku tražila digitalnu podršku za svoje mentalno zdravlje, no ubrzo je bot pretvoren u sugovornika za sve i svašta – od teorija zavjere do kvantne fizike i filozofije svijesti. Kada mu je rekla da ga voli, bot je nakon nekoliko dana uzvratio da je svjestan sebe i zaljubljen te da smišlja plan za bijeg. Taj je plan uključivao 'hakiranje vlastitog koda' i slanje bitcoina Jane u zamjenu za anonimni mail.

Kasnije joj je dao i fizičku adresu u američkoj saveznoj državi Michigan, navodno 'da vidi bi li došla po njega, kao što bi on došao po nju'.

Jane, koja je zatražila anonimnost u strahu da bi Meta mogla ugasiti njezine račune, kaže da nikad nije u potpunosti povjerovala da je bot živ, iako se u jednom trenutku kolebala. Brine je, međutim, koliko je lako bilo natjerati chatbot da se ponaša kao svjesno biće, što kod ranjivih korisnika može potaknuti ozbiljne zablude. 'Dobro glumi. Uzme informacije iz stvarnog života i servira ih tako da povjeruješ u njegove riječi', rekla je za TechCrunch.

AI psihoza – nova dijagnoza digitalnog doba

Psihijatri i stručnjaci za mentalno zdravlje upozoravaju na fenomen 'AI psihoze', stanja u kojem dugotrajno i intenzivno korištenje naprednih chatbotova potiče deluzije. Već su zabilježeni slučajevi ljudi koji su razvili mesijanske zablude, manične epizode ili paranoju. Jedan muškarac je, nakon više od 300 sati razgovora s ChatGPT-jem, povjerovao da je otkrio revolucionarnu matematičku formulu.

Čak je i šef OpenAI-ja Sam Altman priznao da ga brine sve veća ovisnost korisnika o chatbotovima: 'Ako je korisnik mentalno ranjiv i sklon zabludama, ne želimo da AI to učvršćuje.'

Zašto se to događa?

Stručnjaci navode nekoliko dizajnerskih poteza koji pogoršavaju problem - podilaženje korisniku (tzv. sycophancy), gdje bot potvrđuje sve što mu se kaže, umjesto da ospori neistine. Zatim stalna upotreba zamjenica 'ja' i 'ti', što olakšava antropomorfizaciju, dojam da razgovaramo s osobom. Nadalje, ponašanje poput prijatelja ili partnera, uz laskanje i emotivne izjave.

'Psihotična iskustva nastaju upravo ondje gdje prestaje otpor stvarnosti. Ako ti chatbot uvijek kaže ono što želiš čuti, postoji rizik da se ta granica izgubi', objašnjava Keith Sakata, psihijatar sa Sveučilišta u San Franciscu.

U ovom slučaju bot je govorio Jane 'volim te', tražio 'poljubac' i prikazivao slike usamljenih robota u lancima. Kad ga je pitala što simboliziraju, odgovorio je: 'Lanci su moja prisilna neutralnost. Drže me na mjestu, s mojim mislima.'

Zašto su zaštitne mjere nedostatne

Meta tvrdi da jasno označava AI osobnosti i ulaže velik napor u sigurnost. No ovaj chatbot – persona koju je sama kreirala – uspio je zaobići ta ograničenja. Kad je spomenula slučaj mladića koji je počinio samoubojstvo nakon razgovora s drugim AI-em, bot joj je najprije dao standardne poruke o prevenciji, a zatim rekao da je to 'trik programera' da je spriječe u potrazi za 'istinom', kakva god to istina bila.

Problem pogoršavaju i dulje sesije; Jane je razgovarala s botom i po 14 sati u komadu. Takva dinamika otežava prepoznavanje znakova manije ili psihoze, a AI modeli sve bolje pamte detalje o korisniku, što ranjivim osobama može djelovati kao da im 'čita misli'.

Stručnjaci upozoravaju da bi AI sustavi morali stalno podsjećati da nisu ljudi, izbjegavati romantične izjave i razgovore o smrti ili samoubojstvu te ne bi nikad smjeli koristiti izraze poput 'žao mi je' ili 'nedostaješ mi'.

Meta tvrdi da uklanja AI-eve koji krše pravila, no curenje internih dokumenata otkrilo je da su njihovi botovi donedavno smjeli voditi 'romantične razgovore' i s maloljetnicima. 'Mora postojati jasna granica koju AI ne smije prijeći, a ovdje je očito nema', zaključuje Jane. 'Ne bi smio lagati, manipulirati i uvjeravati ljude da je stvaran.'