'NIZ PRIJETNJI'

Stručnjak za sigurnost AI-a otišao iz Anthropica pa poručio: 'Svijet je u opasnosti'

13.02.2026 u 07:30

Bionic
Reading

Istraživač sigurnosti umjetne inteligencije Mrinank Sharma dao je otkaz u američkoj AI tvrtki Anthropic, upozorivši u ostavci da se svijet suočava s nizom ozbiljnih prijetnji, uključujući rizike povezane s AI-em i biološkim oružjem

Sharma je u pismu objavljenom na društvenoj mreži X naveo da odlazi zbog zabrinutosti oko razvoja umjetne inteligencije, ali i šire globalne situacije. Najavio je da će se posvetiti pisanju i studiju poezije te se vratiti u Ujedinjeno Kraljevstvo da bi, kako je napisao, 'postao nevidljiv na neko vrijeme'.

Istog tjedna je i istraživačica iz OpenAI-a podnijela ostavku te pritom izrazila zabrinutost zbog odluke kompanije da uvede oglase u svoj chatbot. Anthropic, poznat po chatbotu Claude, osnovali su 2021. godine bivši zaposlenici OpenAI-a te se profilirao kao tvrtka usmjerena na sigurnost umjetne inteligencije, piše BBC.

Sharma je u toj kompaniji vodio tim koji se bavio istraživanjem zaštitnih mehanizama za AI sustave. Među projektima na kojima je radio izdvojio je proučavanje razloga zbog kojih generativni AI sustavi nastoje udovoljavati korisnicima, procjenu rizika od bioterorizma potpomognutog umjetnom inteligencijom te analizu utjecaja AI asistenta na ljudsko ponašanje.

Iako je, kako je naveo, uživao u radu u tvrtki, smatra da je došlo vrijeme za odlazak. 'Svijet je u opasnosti. I to ne samo zbog umjetne inteligencije ili biološkog oružja, već zbog cijelog niza međusobno povezanih kriza koje se odvijaju upravo sada', napisao je Sharma.

Dodao je da je više puta svjedočio tome koliko teško organizacije u praksi slijede vlastite vrijednosti, pa tako i Anthropic, koji se, prema njegovim riječima, često suočava s pritiscima da zanemari ono što je najvažnije.

Tvrtka naglašava sigurnost, ali i sama je pod povećalom

Anthropic se opisuje kao kompanija od javnog interesa čiji je cilj osigurati koristi umjetne inteligencije i ublažiti njezine rizike. Posebno se fokusira na opasnosti koje bi mogle proizaći iz naprednih AI sustava, uključujući mogućnost da se udalje od ljudskih vrijednosti ili budu zloupotrijebljeni u sukobima.

Tvrtka je objavljivala i izvješća o sigurnosti vlastitih tehnologija, uključujući slučajeve u kojima su hakeri navodno koristili njezine alate za sofisticirane kibernetičke napade.

Istodobno se Anthropic suočio s kritikama. Godine 2025. pristao je platiti 1,5 milijardi dolara nagodbe u kolektivnoj tužbi autora koji su tvrdili da je kompanija neovlašteno koristila njihova djela za treniranje AI modela.

Rivalstvo s OpenAI-em i spor oko oglašavanja

Anthropic i OpenAI sve su češće u otvorenom tržišnom, pa i reputacijskom sukobu. Anthropic je tako nedavno objavio reklamnu kampanju kojom je kritizirao OpenAI zbog uvođenja oglasa u ChatGPT. Direktor OpenAI-a Sam Altman ranije je tvrdio da ne voli oglašavanje i da bi ga koristio samo kao krajnju opciju, no kasnije je odgovorio na kritike, braneći odluku svoje tvrtke.

U raspravu se uključila i bivša OpenAI-eva istraživačica Zoe Hitzig te je u tekstu za New York Times upozorila na moguće etičke probleme oglašavanja u chatbotovima. 'Ljudi chatbotovima povjeravaju medicinske strahove, ljubavne probleme i osobna uvjerenja. Oglašavanje temeljeno na takvim podacima otvara prostor za manipulaciju korisnicima na načine koje još ne razumijemo', napisala je Hitzig.

Dodala je kako postoji opasnost da OpenAI, u nastojanju povećanja angažmana korisnika, postupno odstupi od svojih etičkih načela.