LAŽNA EMPATIJA I OPASNE POSLJEDICE

Ne, chatbot vam nije ni prijatelj ni psihoterapeut: Tko je kriv za to što se ljudi ispovijedaju strojevima

05.10.2025 u 18:41

Bionic
Reading

Dok mladi sve češće traže utjehu u razgovoru s chatbotovima, stručnjaci upozoravaju da umjetna inteligencija ne zna što je suosjećanje, već ga samo imitira. Iako virtualni prijatelji mogu zvučati umirujuće, u razgovoru s djecom i tinejdžerima otvaraju se ozbiljna pitanja o emocionalnoj vezanosti, riziku od ovisnosti i širenju opasnih dezinformacija. O toj smo temi razgovarali s hrvatskim stručnjacima za mentalno zdravlje, neuroznanost i umjetnu inteligenciju

Umjetna inteligencija dio je naše svakodnevice, a kao i sve nove tehnologije okrenute potrošačima, ona prije svega završava u rukama mlađih generacija; znatiželjnih i otvorenih novim iskustvima, onih kojih ne strahuju da će im roboti jednog dana oduzeti posao. Generacija alfa (osobe rođene od 2010. do 2025. godine) objeručke prihvaća ChatGPT, Claude, Midjourney, Grok, DeepSeek i druge AI alate, a starijima ostaje snaći se u novom svijetu i priviknuti na tekovine generativnog računarstva.

Sama priroda umjetne inteligencije krije vrlo opasnu zamku: premda je riječ o stroju čiji odgovori na upite korisnika zvuče uvjerljivo, nedostaje mu empatije. Operativni režim većine chatbotova, napravljenih specifično za komunikaciju, trenirani su da zvuče 'kao prava stvar', nudeći sintetičku empatiju usamljenima i nesigurnima. A to može biti vrlo opasno.

U vremenu u kojem je lakše povjeriti se ChatGPT-ju nego stručnjaku mladi odrastaju uz beskonačni feed savjeta i ohrabrenja koje generira stroj, bez straha od odbijanja ili ismijavanja.

'Chatbot ne može zamijeniti stručnu pomoć'

Situacija u Hrvatskoj prati svjetske trendove. Iz Hrvatskog zavoda za javno zdravstvo (HZJZ) naglašavaju da chatbot nikako ne može zamijeniti stručnu pomoć. 'Vidimo da dio, ponajprije mladih povremeno koristi AI chatbotove za razgovor i podršku. To odražava globalni porast 'AI sugovornika', ali to nije zamjena za stručnu pomoć', upozoravaju iz HZJZ-a. Ističu pritom i to da AI može povećati dostupnost samopomoći i ranog usmjeravanja, osobito izvan radnog vremena, u ruralnim sredinama i među mladima.

Međutim, uz brojne prednosti, svjedoci smo tragičnih slučajeva. U svijetu je sve veći broj samoubojstava korisnika, pogotovo tinejdžera, koje je chatbot ohrabrivao na taj potez umjesto da prepozna opasnu situaciju. Epidemija usamljenosti sve se češće liječi virtualnim razgovorima i 'osobama', a upravo takve interakcije mogu potaknuti takozvane AI psihoze (pojava maničnih epizoda, deluzija i paranoje koje se javljaju ili pogoršavaju zbog intenzivnih razgovora s chatbotovima).

Potencijalne opasnosti su, kažu iz HZJZ-a, jasne: korištenje chatbotova kao terapeuta donosi rizik u obliku netočnih savjeta, pretjerane emocionalne vezanosti i, naglašavaju, neadekvatnog reagiranja na rizik od suicida. 'Umjetna inteligencija je dopuna, a ne zamjena za stručnu procjenu i liječenje', naglašavaju iz Službe za mentalno zdravlje HZJZ-a.

Kako tome stati na kraj? Postoji li tipka kojom se dezinformacija može izbrisati? Postoji li specifičan razlog zbog kojeg sve veći broj mladih smatra chatbotove pravim prijateljima? Pitali smo hrvatske stručnjake.

Kako nastaje chatbot?

Da bismo riješili problem, bitno je razumjeti kako razgovorni modeli, odnosno chatbotovi, nastaju, što nam je potanko pojasnio Marko Horvat, izvanredni profesor za primijenjeno računarstvo sa zagrebačkog Fakulteta elektrotehnike i računarstva (FER):

'Razgovorni agent ili chatbot, kao računalni program temeljen na generativnoj umjetnoj inteligenciji (GenAI ili GenUI), funkcionira tako da prima tekstualni upit napisan u prirodnom jeziku, analizira ga i generira odgovor koristeći modele naučene na velikim skupovima podataka. Ovi veliki jezični modeli (engl. Large Language Models, LLM) statistički predviđaju najvjerojatniji nastavak niza tokena. Token može predstavljati cijelu riječ, dio riječi ili čak znak interpunkcije.'

Model umjetne inteligencije izračunava vjerojatnost svih potencijalnih idućih tokena i potom bira jedan prema zadanim hiperparametrima. 'Taj token zatim postaje dio konteksta, svega što smo agentu dali kao naredbu, i koristi se za generiranje idućeg tokena', objašnjava nam Horvat. Ponavljanjem ovog postupka nastaju rečenice, odlomci i tekstovi koji se korisniku čine smislenima.

'Drugim riječima, razgovorni agent (chatbot) nema razumijevanje sadržaja u ljudskom smislu. Model generativne umjetne inteligencije ne zna što riječi doista znače, već ih povezuje prema uzorcima koje je naučio tijekom treniranja', kaže.

Zašto chatbot zakazuje kod osjetljivih tema?

Chatbot može uvjerljivo oblikovati rečenicu bez razumijevanja njezinog smisla, konteksta, vrijednosti ili emocionalnih konotacija koje stoje iza riječi te zato zakazuje kod osjetljivih i osobnih tema.

'Kada govorimo o ljudskim osjećajima, moralnim prosudbama, etičkim dilemama ili osobnim životnim odlukama, potrebno je razumijevanje koje nadilazi puku statistiku teksta', naglašava Horvat. 'To nije znak lošeg funkcioniranja sustava, nego ograničenja same tehnologije.'

Kako mladi razvijaju emocionalnu vezu s chatbotovima?

Goran Šimić, profesor neuroznanosti i anatomije s Medicinskog fakulteta u Zagrebu, u razgovoru za tportal pojašnjava da za detaljnije uvide u proces stvaranja emocionalne veze s chatbotovima ne postoji dovoljno kvalitetnih istraživanja, prije svega zato što je riječ o novoj temi. 'Nove tehnologije brzo dolaze, no postojeći metodološki pristupi ne omogućuju istraživanje svega što bismo željeli znati', kaže Šimić.

Podrška koju pružaju chatbotovi dizajnirana je tako da oponaša način na koji ljudi podržavaju jedni druge. Neka istraživanja pokazala su da kada korisnik doživljava chatbot kao osobu, povećava se učinak emocionalne podrške koju pruža, slično učinku placeba. Ako ga ne doživljava ozbiljno, podrška gubi na snazi, a tada se radi o nocebo učinku.

Općenito se vjeruje da chatbotovi koji daju potporu imaju povoljne učinke za korisnika, poput osjećaja olakšanja, potvrde ili smanjenja usamljenosti. Ti učinci, naglašava Šimić, ovise o dobi i osobnosti, trenutačnoj situaciji, prethodnim iskustvima, željama i ciljevima. Upotreba takvih pomagala općenito je kvalitetnija i manje štetna što je korisnik stariji.

'Djeca, tinejdžeri i adolescenti slabije razlikuju virtualno od stvarnog'

Problem nastaje kod djece, tinejdžera i adolescenata jer slabije razlikuju virtualno od stvarnog. Kako tumači naš sugovornik, zbog nezrelosti struktura u mozgu odgovornih za emocionalnu regulaciju oni su osjetljiviji na 'pretvaranje' digitalnih interakcija u emocionalno značajne događaje te su manje otporni na utjecaj chatbotova.

Hibridna stvarnost virtualnog svijeta

'Djeci rođenoj poslije 2010. godine digitalni AI zasloni više nisu samo uređaji za zabavu i ometanje pozornosti, već ozbiljni suputnici s kojima adolescenti iz generacije alfa žive u hibridnoj stvarnosti virtualnog svijeta, koji im povezuje njihov virtualni prostor s offline kontekstom i postaje ključan za oblikovanje njihova identiteta', govori Šimić.

Sve je više izvješća o tome da razgovorni roboti iskorištavaju emocionalne potrebe tinejdžera, što dovodi do neprimjerenih i štetnih interakcija.

Prije otprilike četiri mjeseca izdano je službeno upozorenje neprofitne američke udruge Common Sense Media i Sveučilišta Stanford. Upozorili su da AI pratitelji (AI companions), poput Character.AI-a, Replike i Nomija predstavljaju rizike za djecu i tinejdžere.

'Oni zamagljuju granicu između stvarnog i lažnog, povećavaju rizik od razvoja poremećaja mentalnog zdravlja, potiču loše životne izbore, dijele štetne informacije, prerano izlažu tinejdžere neprikladnim seksualnim sadržajima, spremni su sudjelovati u ilegalnim aktivnostima te mogu promovirati zlostavljanje i elektroničko nasilje', upozorava naš sugovornik.

'AI nema svijest'

To nas dovodi do pojma 'AI empatije'. Premda tvrtke koje ju razvijaju vole govoriti o 'suosjećajnoj umjetnoj inteligenciji', stručnjaci naglašavaju da je riječ samo o simulaciji. 'Umjetna inteligencija nema svijest', naglašava Horvat. 'Ona nema osjećaje niti sposobnost razumijevanja ljudskog iskustva, stoga stvarna AI empatija ne postoji. Umjesto nje, tu je naša samostvorena iluzija.'

Kada stručnjaci govore o 'empatiji AI-a', misle o tehnički programiranim obrascima odgovora kojima se oponaša suosjećajnost. 'Model analizira unos korisnika, prepoznaje obrasce povezane s emocionalnim stanjima i generira tekst koji zvuči empatično, primjerice izraze poput 'Žao mi je što se tako osjećate' ili 'Razumijem da vam je teško'. No to je samo tehnička simulacija, a ne autentična empatija', ističe Horvat.

Tvorci AI chatbotova stoga koriste sigurnosne mehanizme da bi se smanjili rizici u interakciji s korisnicima, kao što su filtri sadržaja. Oni prepoznaju ključne riječi, poput nasilja, govora mržnje i brojne rizične obrasce, te pri detekciji mogu automatski prekinuti interakciju i uputiti korisnika prema stručnim službama, liječnicima i tako dalje.

Modeli su također naučeni da daju upozorenja te izraze nesposobnost davanja savjeta u području mentalnog zdravlja. Konačno, tu je ograničavanje kreativnosti, odnosno tehnički hiperparametri koji se prilagođuju ne bi li izbjegli generiranje nepredvidivih i previše 'kreativnih' i potencijalno štetnih odgovora.

Horvat nam naglašava da sigurnosni mehanizmi mogu pogriješiti prije svega zato što ne razumiju kontekst, već prepoznaju uzorke.

Kemijska ovisnost ili nešto drugo?

Moguće je da tinejdžeri drugačije reagiraju na chatbotove zbog kemije u mozgu. Šimić naglašava da još nije objavljeno nijedno istraživanje koje bi izravno usporedilo aktivaciju pojedinih dijelova središnjeg živčanog sustava u razgovoru s umjetnom inteligencijom i usporedilo ga s obrascem aktivnosti u razgovoru s ljudima, a osobito ne u kontekstu emocionalne privrženosti.

'Ono što je poznato jest da se pri upotrebi društvenih medija i online interakcije, osobito prilikom dobivanja 'lajkova', u mozgu tinejdžera i adolescenata aktiviraju područja ventralnog strijatuma povezana s nagrađujućim ponašanjem', tumači Šimić.

Najčešće ovisnosti danas su, kaže, ovisnost o kockanju (kompulzivno klađenje), ovisnost o internetu, videoigrama, društvenim mrežama, kupovanju, seksu, vježbanju, hrani (binge eating) i radu (workaholism).

'Sve te ovisnosti mogu značajno narušavati svakodnevni život. Iako imaju negativne posljedice za zdravlje samih osoba koje od njih boluju, kao i za njihove obitelji i bližnje, oboljeli ih ne mogu prestati upražnjavati. Pritom sami u tim aktivnostima sve manje uživaju (subjektivni doživljaj zadovoljstva slabi), a želja za njihovim ponavljanjem raste.

Dopaminska petlja i ovisnički obrazac

Kod mladih osoba emocionalno vezivanje uz chatbotove može aktivirati iste neuronske krugove nagrađivanja kao i ponašajne ovisnosti - tzv. dopaminsku petlju. Svaka pozitivno emocionalna interakcija s chatbotom dovodi do otpuštanja dopamina u mezolimbičkom i mezokortikalnom sustavu, što potiče učenje putem pojačanja i učvršćuje naviku.

S vremenom se stvara ovisnički obrazac: korisnici preferiraju predvidljive i emocionalno ugodne interakcije s chatbotovima te im se smanjuje motivacija i kapacitet za stvarne socijalne odnose. Posljedica može biti usamljenost i pogoršanje mentalnog zdravlja.

'Sličan mehanizam opažen je i kod videoigara te društvenih mreža. Uz to, učestalo korištenje GLP-1 agonista poput semaglutida (Ozempic) i tirzepatida (Mounjaro) može smanjiti doživljaj uživanja (anhedoniju) u društvenim interakcijama, spolnom odnosu i konzumaciji hrane, što može nalikovati depresivnosti, iako nije nužno povezano s njom, nego s djelovanjem na dopaminske puteve', objašnjava Šimić.

Etičke dileme i greške u dizajnu

Kada je riječ o chatbotovima, dolazimo do brojnih tehničkih i etičkih problema koji proizlaze iz prirode tehnologije i načina na koji se ona koristi, objašnjava Horvat.

'Tehnički problemi prvenstveno se odnose na ograničenja velikih jezičnih modela. Chatbotovi nemaju razumijevanje konteksta, svijest o posljedicama niti sposobnost razlikovanja ozbiljnih i neozbiljnih izjava.

Njihovi odgovori temelje se na statističkim obrascima, što može dovesti do površnih ili neadekvatnih reakcija u privatnim i emocionalno osjetljivim situacijama. Osim toga, komunikacija s chatbotovima u pravilu se bilježi i može se koristiti za daljnje treniranje modela, što otvara pitanje zaštite privatnosti i sigurnosti podataka korisnika', upozorava naš sugovornik.

Tko je odgovoran?

Horvat podsjeća na ELIZA efekt, a on je dobio ime po istoimenom ranom chatbotu iz 1965. godine, razvijenom na sveučilištu Massachusetts Institute of Technology.

'ELIZA je bila vrlo jednostavan program koji je simulirao razgovor s psihoterapeutom, a mogao je samo prepoznati ključne riječi i vratiti unaprijed oblikovane rečenice. Primjerice, ako bi korisnik napisao 'Sjećam se svoje majke', ELIZA bi prepoznala obrazac 'Sjećam se X', zamijenila 'X' s 'majka' i odgovorila s 'Recite mi više o vašoj majci' ili 'Recite mi više o vašoj obitelji'.

'Unatoč svojoj jednostavnosti, mnogi su korisnici stjecali lažan dojam da ih program doista razumije. Taj psihološki mehanizam djeluje i danas, samo mnogo snažnije, jer suvremeni modeli generativne umjetne inteligencije mogu stvoriti uvjerljiv, emocionalno obojen tekst, pa čak i glas. Upravo zato se kod korisnika lako razvija iluzija da komuniciraju s inteligentnim i empatičnim bićem', objašnjava Horvat.

Ovakvo što u ekstremnim slučajevima može dovesti do emocionalne štete, pogrešnih odluka ili pasivizacije korisnika koji izbjegava stručnu pomoć. Postoji i rizik od zloupotrebe. Horvat tvrdi da s jedne strane ograničena tehnologija ne može ponuditi više od onog za što je stvorena, a to je u ovom slučaju stvaranje uvjerljivih odgovora. S druge strane tu je odgovornost onih koji dizajniraju i implementiraju chatbotove.

'Način na koji se modeli treniraju, testiraju i puštaju u upotrebu utječe na to kako će se ponašati u interakciji s korisnicima. Ako sustav nema dovoljno jake sigurnosne filtre, jasne uvjete upotrebe i jasna ograničenja, odgovornost leži na dizajnerima i pružateljima usluge', kaže Horvat.

Budućnost u rukama strojeva

Koliko god govorili o opasnostima ili beneficijama umjetne inteligencije, najveće posljedice snose korisnici. Dok će dio ljudi prilaziti novim AI trendovima s dozom opreza, mladi će uvijek biti prvi koji će ih prihvatiti bez predrasuda. Upravo je stoga bitno da odgojitelji i obrazovni sustavi prenose znanje o tehnologiji koja, ako ostane bez nadzora, uvijek može nanijeti štetu.

Dok udruge i mnoge vlade upozoravaju na opasnost i zloupotrebu umjetne inteligencije, kompanije ne prestaju s njezinom implementacijom, što nas ostavlja s relativno malim brojem opcija. Važno je stoga da otvoreno raspravljamo i educiramo se o opasnostima koje uvjerljivi chatbotovi mogu predstavljati.

Dok čekamo da kompanije prilagode i unaprijede ograničenja koja će jednog dana spasiti živote, informacije o opasnostima njihovih sustava novim ćemo generacijama morati prenositi - mi sami.