POTENCIJALNE KATASTROFE

Nespremni za vlastite tehnologije? Najmoćnije svjetske tvrtke padaju na osnovnom testu sigurnosti

08.12.2025 u 12:08

Bionic
Reading

Osam vodećih tvrtki za generativnu umjetnu inteligenciju nemaju vjerodostojne planove za sprječavanje potencijalnih katastrofa, pokazuje nova studija

Najveće svjetske tvrtke za umjetnu inteligenciju ne ispunjavaju ni vlastite sigurnosne obveze, pokazalo je izvješće Winter AI Safety Index za 2025. godinu, koje je objavila neprofitna organizacija Future of Life Institute (FLI).

Istraživanjem je bilo obuhvaćeno osam velikih tvrtki: američke Anthropic, OpenAI, Google DeepMind, xAI i Meta Platforms te kineske DeepSeek, Alibaba Cloud i Z.ai. Otkriven je nedostatak vjerodostojnih strategija za sprječavanje katastrofalne zlouporabe ili gubitka kontrole nad alatima umjetne inteligencije.

Niti jedna tvrtka nije proizvela plan koji se može provjeriti za održavanje ljudske kontrole nad sve sposobnijim sustavima umjetne inteligencije, iako nastoje proizvesti opću umjetnu inteligenciju i superinteligenciju, koja bi nadmašila ljudski intelekt.

Studija je mjerila tvrtke u šest kritičnih područja: procjena rizika, trenutne štete, sigurnosni okviri, egzistencijalna sigurnost, upravljanje i odgovornost te razmjena informacija.

Iako je zabilježen napredak u pojedinim kategorijama, provedba je i dalje nedosljedna. Često joj nedostaje dubina koju zahtijevaju globalni standardi u nastajanju. Anthropic, OpenAI i Google DeepMind pohvaljeni su za relativno jaku transparentnost, okvire javne sigurnosti i stalna ulaganja u istraživanje tehničke sigurnosti.

Ima prostora za poboljšanje

Ipak, i dalje su imali slabosti.

Kod Anthropica je problematično to što su prestali ispitivati poboljšanja na ljudima i prešli na obuku o korisničkim interakcijama prema zadanim postavkama, što slabi zaštitu privatnosti. OpenAI je kritiziran zbog dvosmislenih sigurnosnih pragova, lobiranja protiv zakona o sigurnosti umjetne inteligencije i nedovoljnog neovisnog nadzora.

Googleov DeepMind je poboljšao svoj sigurnosni okvir, ali se još oslanja na vanjske evaluatore koje tvrtka plaća, što narušava njihovu neovisnost. Preostalih pet kompanija pokazalo je neujednačen, ali značajan napredak. Međutim, ima još prostora za napredak.

Na primjer, xAI je objavio svoj prvi strukturirani sigurnosni okvir, iako su recenzenti upozoravali kako je uzak i nedostaju mu jasni okidači za ublažavanje.

Z.ai je bila jedina tvrtka koja je dopustila necenzurirano objavljivanje svojih vanjskih procjena sigurnosti, ali je preporučena i objava punog sigurnosnog okvira i strukture upravljanja s jasnim područjima rizika, ublažavanjima i procesima donošenja odluka.

Meta je predstavila novi granični sigurnosni okvir s pragovima temeljenim na ishodu, ali bi trebala razjasniti metodologije, kao i podijeliti robusnije interne i eksterne procese evaluacije. DeepSeek je zaslužan za interno zagovaranje od strane zaposlenika, ali još nema osnovnu sigurnosnu dokumentaciju.

Utvrđeno je kako je Alibaba Cloud pridonio obvezujućim nacionalnim standardima za vodeni žig, ali bi mogao unaprijediti robusnost modela i pouzdanost poboljšanjem performansi na referentnim vrijednostima istinitosti, pravednosti i sigurnosti. Umjetna inteligencija je, piše Euro News, u SAD-u regulirana manje nego sendviči, a nastavlja se i lobiranje protiv obvezujućih sigurnosnih standarda.

S druge strane, tisuće javnih osoba - uključujući AI i tehnološke lidere - pozvale su tvrtke na usporavanje potrage za superinteligencijom.

Peticija, koju je organizirao FLI, prikupila je potpise iz cijelog političkog spektra, uključujući Stevea Bannona (bivšeg glavnog stratega američkog predsjednika Donalda Trumpa), Susan Rice (bivšu savjetnicu za nacionalnu sigurnost SAD-a za vrijeme bivšeg predsjednika Barracka Obame), vjerske vođe i mnoge druge bivše političare, kao i istaknute računalne znanstvenike.