Tvrtke koje razvijaju umjetnu inteligenciju 'fundamentalno su nespremne' za posljedice stvaranja sustava s ljudskom razinom intelektualne moći, upozorava jedna od najuglednijih organizacija za sigurnost u AI industriji
Future of Life Institute (FLI) u svom najnovijem izvješću navodi da nijedna od analiziranih tvrtki nije dobila ocjenu višu od D za 'planiranje egzistencijalne sigurnosti'. Ocjene su dodijeljene po američkoj akademskoj ljestvici, gdje A označava izvrsno, C prosječno s ozbiljnim manama, D loše (minimalni standard), a F potpuni neuspjeh.
Jedan od pet recenzenata izvješća rekao je da nijedna kompanija koja teži razvoju opće umjetne inteligencije (AGI) nema 'koherentan i provediv plan' da takvi sustavi ostanu sigurni i pod kontrolom.
AGI označava teorijsku fazu razvoja AI-a u kojoj bi sustavi mogli obavljati bilo koji intelektualni zadatak jednako učinkovito kao ljudi. Tvrtke poput OpenAI-a, kreatora ChatGPT-ja, tvrde da im je misija osigurati da AGI 'koristi cijelom čovječanstvu'. Međutim zagovornici sigurnosti upozoravaju da bi AGI mogao predstavljati egzistencijalnu prijetnju ako izmakne ljudskoj kontroli i izazove katastrofalne posljedice, piše Guardian.
Tvrtke žele AGI u ovom desetljeću, ali nemaju plan
'Izvješće pokazuje da je industrija nespremna za svoje proklamirane ciljeve', stoji u analizi FLI-a. 'Tvrtke tvrde da će postići opću umjetnu inteligenciju u deset godina, ali nijedna nije dobila ocjenu višu od D za planiranje egzistencijalne sigurnosti.'
FLI-ev indeks sigurnosti ocjenjuje sedam AI tvrtki – Google DeepMind, OpenAI, Anthropic, Metu, xAI te kineske Zhipu AI i DeepSeek – u šest kategorija, uključujući 'trenutačne štete' i 'egzistencijalnu sigurnost'. Najvišu ukupnu ocjenu dobio je Anthropic s C+, a OpenAI i Google DeepMind dobili su C, odnosno C-.
Max Tegmark, suosnivač FLI-a i profesor na Massachusetts Institute of Technology (MIT), rekao je da je 'zapanjujuće' to da tvrtke razvijaju sustave superinteligencije bez objavljenih planova za upravljanje posljedicama.
'To je kao da netko gradi gigantsku nuklearnu elektranu usred New Yorka koja se otvara idući tjedan, ali nema plan za sprječavanje taljenja reaktora', upozorio je Tegmark. Dodao je da je napredak AI tehnologije 'nevjerojatno ubrzan' te da su stručnjaci nekoć vjerovali da imaju desetljeća za rješavanje izazova AGI-a. 'Sada same tvrtke kažu da je to pitanje nekoliko godina', rekao je.
Iz Google DeepMinda poručili su da izvješće ne uzima u obzir 'sve napore tvrtke na području sigurnosti umjetne inteligencije'. 'Naš sveobuhvatan pristup sigurnosti i zaštiti znatno nadilazi ono što je ovdje prikazano', dodali su. OpenAI, Anthropic, Meta, xAI, Zhipu AI i DeepSeek zasad nisu odgovorili na zahtjeve za komentar.
Isti dan kada je FLI objavio svoj indeks, organizacija SaferAI upozorila je da napredne AI tvrtke imaju 'slabe do vrlo slabe prakse upravljanja rizicima', a njihov trenutni pristup ocijenila je 'neprihvatljivim'.