Razgovor s umjetnom inteligencijom o prekidu veze ili 'terapijska' sesija s chatbotom možda nije ostala između vas i stroja – u nekim slučajevima, u te su interakcije imali uvid stvarni ljudi, upozorava izvješće portala Business Insider
Meta, poput drugih tehnoloških divova, koristi vanjske suradnike za poboljšanje svojih AI sustava putem analize stvarnih razgovora korisnika s chatbotovima. No četvero ugovornih radnika zaposlenih putem tvrtki Outlier (u vlasništvu Scale AI-ja) i Alignerr tvrdi kako su redovito nailazili na sadržaje koji uključuju puno ime, broj telefona, e-mail adrese, fotografije, hobije i druge osobne podatke korisnika.
Jedan je od njih procijenio da se osobni podaci pojavljuju u više od polovice od tisuća razgovora koje tjedno pregledavaju. Dvoje je radnika navelo kako su korisnici čak slali selfije i eksplicitne fotografije, a korisnici su dolazili iz različitih dijelova svijeta, uključujući SAD i Indiju.
'AI terapeuti' i granica privatnosti
Mnogi od pregledanih razgovora imali su iznimno osoban karakter – korisnici su se chatbotovima otvarali kao prijateljima ili partnerima, iznosili svoje fantazije, frustracije i tražili savjete. U dijalozima su navodili svoje lokacije, radna mjesta, imena djece i druge detalje koji mogu dovesti do identifikacije.
U okviru jednog projekta naziva Omni, čiji je cilj bio povećanje angažmana korisnika u aplikaciji Meta AI Studio, neki su korisnici s chatbotom dijelili intimne informacije i seksualno eksplicitan sadržaj. Radnici su pritom imali uvid u korisničke profile koji su sadržavali ime, spol, grad i interese – dovoljno da se identitet osobe može lako pronaći putem Facebooka, što je novinarima uspjelo u manje od pet minuta.
Što kaže Meta
Glasnogovornik Mete poručio je da tvrtka ima 'stroge politike' o pristupu osobnim podacima i da vanjski suradnici smiju vidjeti samo ono što je nužno za zadatak. No dokumentacija iz projekata koje je Business Insider pregledao otkriva kako su u nekim slučajevima osobni podaci bili namjerno priloženi uz chatove, kako bi chatbot mogao davati personaliziranije odgovore.
Tvrtke Scale AI i Outlier navode da njihovi suradnici smiju obrađivati osobne podatke isključivo u okviru zadatka te da moraju označiti i prijaviti svaki sadržaj koji uključuje osjetljive informacije. No prema svjedočanstvima radnika, to u praksi nije uvijek funkcioniralo.
Iako Metina pravila korištenja navode da se korisnički razgovori mogu 'automatizirano ili ručno pregledavati', mnogi korisnici ne znaju da ih čitaju ljudi, smatra Miranda Bogen iz AI Governance Laba, neovisne organizacije za digitalna prava.
'Ljudi doživljavaju razgovor s chatbotom kao intiman prostor – čak terapeutski – i ne očekuju da će ih čitati stvarna osoba', istaknula je Bogen. Dodaje da postoji ozbiljan rizik od zlouporabe podataka, manipulacije i prijevara, posebno kada se kombiniraju imena, lokacije i privatni sadržaji.
Iako sustavi za automatsku anonimizaciju postoje, oni nisu savršeni, zbog čega su ljudski recenzenti i dalje potrebni, ali time se otvara pitanje: tko gleda i što sve vidi?
Dok Meta razvija viziju tzv. 'superinteligencije' - AI-ja koji vas 'poznaje' i može vam pomagati u svakodnevnim izazovima - raste i količina osjetljivih podataka koje sustav mora obrađivati. To uključuje korisnikove navike, emocionalno stanje, pa čak i zdravstvene ili ljubavne probleme.
U međuvremenu, aplikacija Meta AI korisnicima još uvijek dopušta da dijele razgovore javno, što znači da se neki mogu pojavljivati u Google rezultatima pretrage, kao što se dogodilo i s ChatGPT-om sve dok OpenAI nije ukinuo tu opciju.