Osam vodećih tvrtki za generativnu umjetnu inteligenciju nema vjerodostojne planove za sprječavanje potencijalnih katastrofa, pokazuje nova studija
Najveće svjetske tvrtke za umjetnu inteligenciju ne ispunjavaju ni vlastite sigurnosne obaveze, pokazalo je izvješće Winter AI Safety Index za 2025. godinu, a objavila ga je neprofitna organizacija Future of Life Institute (FLI).
Istraživanjem je bilo obuhvaćeno osam velikih tvrtki: američke Anthropic, OpenAI, Google DeepMind, xAI i Meta Platforms te kineske DeepSeek, Alibaba Cloud i Z.ai. Otkriven je nedostatak vjerodostojnih strategija za sprječavanje katastrofalne zloupotrebe ili gubitka kontrole nad alatima umjetne inteligencije.
Niti jedna tvrtka nije proizvela plan koji se može provjeriti za održavanje ljudske kontrole nad sve sposobnijim sustavima umjetne inteligencije, iako nastoje proizvesti opću umjetnu inteligenciju i superinteligenciju koja bi nadmašila ljudski intelekt.
Studija je mjerila tvrtke u šest kritičnih područja: procjena rizika, trenutne štete, sigurnosni okviri, egzistencijalna sigurnost, upravljanje i odgovornost te razmjena informacija.
Iako je zabilježen napredak u pojedinim kategorijama, provedba je i dalje nedosljedna i često joj nedostaje dubina koju zahtijevaju globalni standardi u nastajanju. Anthropic, OpenAI i Google DeepMind pohvaljeni su za relativno jaku transparentnost, okvire javne sigurnosti i stalna ulaganja u istraživanje tehničke sigurnosti.
Ima prostora za poboljšanje
Ipak, i dalje su imali slabosti.
Kod Anthropica je problematično to što su prestali ispitivati poboljšanja na ljudima i prešli na obuku o korisničkim interakcijama prema zadanim postavkama, što slabi zaštitu privatnosti. OpenAI je kritiziran zbog dvosmislenih sigurnosnih pragova, lobiranja protiv zakona o sigurnosti umjetne inteligencije i nedovoljnog neovisnog nadzora.
Googleov DeepMind je poboljšao svoj sigurnosni okvir, ali se još oslanja na vanjske evaluatore koje tvrtka plaća, što narušava njihovu neovisnost. Preostalih pet kompanija pokazalo je neujednačen, ali značajan napredak. Međutim ima još prostora za napredak.
Naprimjer, xAI je objavio svoj prvi strukturirani sigurnosni okvir, iako su recenzenti upozoravali da je uzak i nedostaju mu jasni okidači za ublažavanje.
Z.ai je bila jedina tvrtka koja je dopustila necenzurirano objavljivanje svojih vanjskih procjena sigurnosti, ali je preporučena i objava punog sigurnosnog okvira i strukture upravljanja s jasnim područjima rizika, ublažavanjima i procesima donošenja odluka.
Meta je predstavila novi granični sigurnosni okvir s pragovima temeljenim na ishodu, ali bi trebala razjasniti metodologije, kao i podijeliti robusnije interne i eksterne procese evaluacije. DeepSeek je pak zaslužan za interno zagovaranje, što dolazi od samih zaposlenika, ali još nema osnovnu sigurnosnu dokumentaciju.
Utvrđeno je da je Alibaba Cloud pridonio obvezujućim nacionalnim standardima za vodeni žig, ali bi mogao unaprijediti robusnost modela i pouzdanost poboljšanjem performansi na referentnim vrijednostima istinitosti, pravednosti i sigurnosti. Umjetna inteligencija je, piše Euro News, u SAD-u regulirana manje nego sendviči, a nastavlja se i lobiranje protiv obvezujućih sigurnosnih standarda.
S druge strane, tisuće javnih osoba - uključujući AI i tehnološke lidere - pozvale su tvrtke na usporavanje potrage za superinteligencijom.
Peticija, koju je organizirao FLI, prikupila je potpise iz cijelog političkog spektra, uključujući Stevea Bannona (bivšeg glavnog stratega američkog predsjednika Donalda Trumpa), Susan Rice (bivšu savjetnicu za nacionalnu sigurnost SAD-a za vrijeme bivšeg predsjednika Barracka Obame), vjerske vođe i mnoge druge bivše političare, kao i istaknute računalne znanstvenike.