Google, Microsoft i xAI dijelit će s američkom vladom još neobjavljene verzije svojih modela umjetne inteligencije kako bi se prije njihova javnog lansiranja procijenili mogući sigurnosni i kibernetički rizici. Detalje je u utorak objavio National Institute of Standards and Technology (NIST), američka savezna agencija zadužena za tehnološke standarde i sigurnost
Podsjetimo, prošlog mjeseca veliki odjek izazvao je novi AI model Mythos kompanije Anthropic, za koji je tvrtka tvrdila da je 'daleko ispred' konkurencije kada je riječ o sposobnostima povezanim s kibernetičkom sigurnošću.
Mythos je otvorio ozbiljna pitanja o potencijalnom utjecaju napredne umjetne inteligencije na nacionalnu sigurnost, hakiranje i otkrivanje ranjivosti, zbog čega Bijela kuća sada razmatra formalni sustav državne provjere novih AI modela prije njihova puštanja u javnost, piše CNN.
Prema novim sporazumima, Centar za AI standarde i inovacije (CAISI), koji djeluje unutar američkog Ministarstva trgovine, moći će analizirati nove AI modele i procjenjivati njihov potencijalni utjecaj na nacionalnu sigurnost i javnu sigurnost prije lansiranja.
Centar će također provoditi testiranja i nakon što modeli budu pušteni u rad. Dosad je, prema podacima NIST-a, dovršeno više od 40 evaluacija AI modela. 'Neovisna i rigorozna znanstvena mjerenja ključna su za razumijevanje napredne umjetne inteligencije i njezinih implikacija za nacionalnu sigurnost', izjavio je direktor CAISI-ja Chris Fall.
Mythos je posljednjih tjedana zabrinuo vlade, banke i energetske tvrtke zbog moguće sposobnosti AI-ja da ubrza otkrivanje sigurnosnih propusta ili pomogne u razvoju sofisticiranijih kibernetičkih napada.
Anthropic je objavio da model zasad neće pustiti u javnost upravo zbog sigurnosnih razloga te da je pristup ograničen samo na odabrane organizacije. Tvrtka je o mogućnostima modela već informirala i visoke američke dužnosnike. U međuvremenu je i OpenAI prošlog tjedna objavio da će svoje najnaprednije modele učiniti dostupnima provjerenim državnim institucijama kako bi se vlasti lakše pripremile za AI prijetnje.
Jessica Ji iz Centra za sigurnost i nove tehnologije pri Georgetown University rekla je da će nova partnerstva pomoći američkim regulatorima koji trenutno nemaju dovoljno resursa za detaljno testiranje najnaprednijih modela. 'Nemaju ni približno iste resurse kao velike tehnološke kompanije - ni po pitanju ljudi, tehničkog osoblja ni računalne infrastrukture potrebne za rigorozna testiranja', rekla je.
Prema pisanju američkih medija, Bijela kuća trenutno okuplja skupinu stručnjaka koja bi trebala savjetovati administraciju o mogućem sustavu državnog nadzora nad novim AI modelima. Takav potez predstavljao bi značajan zaokret u odnosu na dosadašnji, prilično liberalan pristup administracije Donalda Trumpa kad je riječ o regulaciji umjetne inteligencije.
Iz Microsofta poručuju da kompanija već provodi vlastita sigurnosna testiranja, ali smatraju da CAISI donosi dodatnu stručnost u području znanosti, tehnologije i nacionalne sigurnosti. Google nije želio dodatno komentirati sporazum, dok xAI nije odgovorio na upite novinara.