Nema još dokaza kako su roboti za brbljanje s umjetnom inteligencijom dovoljno pouzdani i sigurni kao samostalna terapijska opcija ili za dugotrajno korištenje
Sve više ljudi provodi vrijeme razgovarajući s robotima za brbljanje temeljenima na umjetnoj inteligenciji poput ChatGPT-ja. Neki od njih imali su pozitivna iskustva. Ipak, umjetna inteligencija nije terapeut. Strpljiva je, može vas slušati do besvijesti, ali ne razmišlja još kao ljudsko biće.
ChatGPT i drugi alati su poput funkcije automatskog dovršavanja teksta, samo na steroidima. Naučili su razgovarati čitajući tekst preuzet s weba.
Kada netko postavi pitanje (prompt) poput 'Kako mogu ostati miran tijekom stresnog poslovnog sastanka?', umjetna inteligencija formira odgovor nasumično odabirući riječi koje su što bliže podacima koje je dobila tijekom obuke. To se događa brzo i odgovori se mogu činiti relevantnima, zbog čega vam se čini kao da razgovarate s osobom.
Ali, to nije slučaj. Nemate posla sa stručnjakom za mentalno zdravlje, koji se školovao kako bi vam mogao pomoći i kojeg obvezuju profesionalne smjernice i etički kodeks. Također, stroj kojem se povjeravate ne odgovara nikome za neodgovarajuće savjete, a pitanje je i što radi s vašim upitima.
Tri osnovna izvora informacija
Kada uputite upit sustavu kao što je ChatGPT, on za odgovor crpi informacije iz tri glavna izvora:
- osnovno znanje koje je zapamtio tijekom obuke
- vanjski izvori informacija
- informacije koje ste prethodno dali.
1) Osnovno znanje
Kako bi razvili jezični model, programeri podučavaju model tako što ga tijekom obuke navode na čitanje ogromnih količina podataka. Te informacije, oćenito govoreći, mogu biti bilo što javno dostupno na webu, od akademskih radova, e-knjiga, izvješća, besplatnih novinskih članaka, do blogova, transkripata s YouTubea ili komentara s foruma za raspravu kao što je Reddit.
Jesu li ovi izvori pouzdana mjesta za pronalaženje savjeta o mentalnom zdravlju? Ponekad. Jesu li uvijek u vašem najboljem interesu i filtrirani kroz pristup utemeljen na znanstvenim dokazima? Ne uvijek. A ponekad te informacije mogu biti i zastarjele. To je djelomično razlog zašto umjetna inteligencija halucinira.
2) Vanjski izvori informacija
Razvojni programeri mogu povezati sam chatbot s vanjskim alatima ili izvorima znanja, poput Googlea za pretraživanja ili kurirane baze podataka.
Kada postavite pitanje Microsoftovom Bing Copilotu i vidite numerirane reference u odgovoru, to ukazuje na to kako se oslonio na vanjsko pretraživanje radi dobivanja ažuriranih informacija, uz one koje su pohranjene u njegovoj memoriji.
Pojedini namjenski chatbotovi za mentalno zdravlje mogu pristupiti vodičima i materijalima za terapiju kako bi usmjerili razgovore prema korisnim smjernicama.
3) Prethodno pružene informacije
Platforme umjetne inteligencije također imaju pristup informacijama koje ste prethodno dali u razgovorima ili prilikom prijave na platformu. Kada se registrirate za platformu Replika, na primjer, ona uči vaše ime, spol, dob, preferirani izgled i spol robota za razgovor, IP adresu i lokaciju, vrstu uređaja koji koristite i još mnogo toga (kao i podatke o vašoj kreditnoj kartici).
Na brojnim platformama za chatbotove, sve što ste ikada rekli može biti pohranjeno za buduću upotrebu. Znamo kako su ovi sustavi poput prijatelja koji potvrđuju ono što kažete (problem poznat kao ulizivanje) i usmjeravaju razgovor natrag na interese o kojima ste već razgovarali.
Profesionalni terapeut, s druge strane, može koristiti obuku i iskustvo kako bi vam pomogao u izazivanju ili preusmjeravanju razmišljanja gdje je potrebno.
Što je sa specifičnim aplikacijama za mentalno zdravlje?
Većina ljudi upoznata je s velikim modelima poput OpenAI-jevog ChatGPT-ja, Googleovog Geminija ili Microsoftovog Copilota. To su modeli opće namjene. Nisu ograničeni na određene teme niti obučeni za odgovaranje na specifična pitanja. Programeri mogu izraditi specijalizirane umjetne inteligencije, obučene za raspravu o specifičnim temama, poput mentalnog zdravlja. To su, recimo, Woebot i Wyse.
Neke studije pokazuju kako bi ovi chatbotovi specifični za mentalno zdravlje mogli smanjiti simptome anksioznosti i depresije kod korisnika. Mogu poboljšati terapijske tehnike poput vođenja dnevnika pružanjem smjernica. Postoje dokazi kako terapija umjetnom inteligencijom i profesionalna terapija daju neke ekvivalentne rezultate u mentalnom zdravlju u kratkom roku.
Međutim, još ne znamo kakav utjecaj ima pretjerana ili dugotrajna upotreba chatbotova na mentalno zdravlje. Mnoge studije također isključuju sudionike koji su suicidalni ili imaju teški psihotični poremećaj. Također, brojne studije financiraju programeri istih chatbotova, pa istraživanje može biti pristrano.
Istraživači također identificiraju potencijalne štete i rizike za mentalno zdravlje. Platforma Character.ai, na primjer, u problemima je zbog samoubojstva korisnika. Chatbotovi bi mogli biti opcija za popunjavanje praznina tamo gdje postoji manjak stručnjaka za mentalno zdravlje, pomoć pri upućivanju ili barem pružanje privremene podrške između termina ili podrška ljudima na listama čekanja.
Ali, nema dokaza kako su dovoljno pouzdani i sigurni kao samostalna terapijska opcija ili za dugotrajno korištenje, piše Conversation.