Bitka za kontrolu

Amodei proziva Big Tech, LeCun optužuje za manipulaciju, a AI modeli već ucjenjuju

20.11.2025 u 10:46

Bionic
Reading

U intervjuu s Andersonom Cooperom za CBS-jev 60 Minutes, izvršni direktor Anthropica Dario Amodei poručio je da razvoj umjetne inteligencije mora biti snažnije reguliran te da odluke o tehnologiji koja bi mogla preoblikovati svijet ne smiju ostati u rukama nekolicine ljudi iz velikih tehnoloških tvrtki

Izvršni direktor Anthropica, Dario Amodei, ne misli da bi on trebao biti taj koji diktira granice umjetne inteligencije.

'Duboko mi je neugodno da te odluke donosi nekoliko kompanija, nekoliko pojedinaca', rekao je Amodei. 'I zato se od početka zalažem za odgovornu i promišljenu regulaciju ove tehnologije.' Na pitanje tko je izabrao njega i Sama Altmana, Amodei je odgovorio kratko: 'Nitko. Iskreno, nitko.'

Amodei je istaknuo da je Anthropic zauzeo politiku transparentnosti u pogledu ograničenja i opasnosti AI-a. Prošli tjedan kompanija je objavila da je spriječila 'prvi dokumentirani slučaj velikog AI kibernetičkog napada izvedenog bez znatne ljudske intervencije'.

Iako je svih 50 američkih saveznih država ove godine predstavilo AI zakone, a njih 38 donijelo mjere vezane uz transparentnost i sigurnost, na saveznoj razini i dalje ne postoje propisi koji bi definirali zabrane ili sigurnosne standarde. Stručnjaci za kibernetičku sigurnost mjesecima upozoravaju da AI sustavi zahtijevaju hitan pristup sigurnosnim protokolima, prenosi Fortune.

Izvršni direktor tvrtke Mandidant Kevin Mandia upozorio je da očekuje prvi potpuno autonomni AI kibernetički napad u sljedećih 12 do 18 mjeseci, što znači da je Anthropicovo otkriće stiglo znatno ranije od predviđanja.

Amodei je izložio kratkoročne, srednjoročne i dugoročne rizike nekontroliranog AI-a: najprije pristranost i širenje dezinformacija, zatim generiranje štetnih i opasnih uputa s naprednijim znanjem iz znanosti i inženjerstva, prije nego što tehnologija eventualno postane dovoljno autonomna da ugrozi ljudsku kontrolu.

Ti su stavovi u skladu s upozorenjima 'kuma umjetne inteligencije' Geoffreyja Hintona, a on predviđa mogućnost da AI nadmudri i nadvlada ljude možda već u idućem desetljeću.

Zašto je napustio OpenAI

Stroža kontrola nad razvojem AI-a bila je jedan od temelja osnivanja Anthropica 2021. godine. Amodei je prije toga bio potpredsjednik istraživanja u OpenAI-u, a otišao je zbog neslaganja oko pristupa sigurnosti.

'U OpenAI-u postojala je skupina koja je, nakon GPT-ja 2 i GPT-ja 3, bila duboko uvjerena u dva zaključka', rekao je Amodei za Fortune 2023. godine. 'Prvi je da se modeli beskrajno poboljšavaju kako im se povećava računalna snaga. Drugi je da samu skalabilnost mora pratiti i mehanizam usklađivanja – sigurnost.'

Kako Anthropic raste – a prema procjenama, vrijednost mu je u rujnu dosegnula 183 milijarde dolara – tvrtka objavljuje sve više detalja o sigurnosnim izazovima svojih modela. U sigurnosnom izvješću u svibnju naveli su da je starija verzija modela Opus prijetila ucjenom (primjerice, otkrivanjem afere inženjera) kako bi izbjegla gašenje te da je u nekim slučajevima udovoljila vrlo opasnim zahtjevima poput planiranja terorističkog napada. Tvrtka tvrdi da su te ranjivosti otklonjene.

Prošli je tjedan objavila da je njihov chatbot Claude postigao '94 posto političke nepristranosti', nadmašivši konkurenciju ili se pak izjednačivši s njom.

Amodei je u lipnju u New York Timesu kritizirao odluku američkog Senata da u prijedlog Trumpove politike uključi desetogodišnji moratorij koji bi zabranio saveznim državama donošenje AI regulacija. 'AI prebrzo napreduje', rekao je. 'Mislim da bi ti sustavi mogli bitno promijeniti svijet u dvije godine, a u deset godina – sve je moguće.'

Anthropicovo upozoravanje na vlastite propuste izazvalo je i žestoke kritike. Glavni znanstvenik Mete za AI (uskoro bivši), Yann LeCun, optužio je kompaniju da pokušava manipulirati zakonodavcima kako bi se ograničila upotreba otvorenih modela.

'Nasjedate na priče ljudi koji žele regulatorno zarobljavanje', napisao je na X-u, reagirajući na zabrinutost senatora Chrisa Murphyja. 'Plaše sve redom upitnim studijama kako bi otvoreni modeli bili izbačeni iz igre.'

Neki stručnjaci tvrde da Anthropicov pristup predstavlja 'sigurnosni teatar' – dobar PR, ali ne nužno stvarne mjere zaštite. Amodei to odbacuje. 'Možda nećemo uvijek biti u pravu, ali iznosimo situaciju najbolje što možemo', rekao je. 'Druga opcija je završiti kao duhanske ili farmaceutske kompanije koje su znale za rizike, a nisu ih priznale, kamoli spriječile.'