ZICO KOLTER

On odlučuje kad AI postaje preopasan: Ovom profesoru povjeren je važan zadatak

04.11.2025 u 08:48

Bionic
Reading

Ako vjerujete da umjetna inteligencija predstavlja ozbiljan rizik za čovječanstvo, onda bi jedan profesor s američkog Sveučilišta Carnegie Mellon mogao imati jedan od najvažnijih poslova u tehnološkoj industriji

Zico Kolter, stručnjak za strojno učenje, vodi četveročlano Povjerenstvo za sigurnost i zaštitu u kompaniji OpenAI; tijelo koje ima pravo zaustaviti lansiranje novih sustava umjetne inteligencije ako ih procijeni nesigurnima. Riječ može biti o tehnologiji koja bi se mogla zloupotrijebiti za izradu oružja masovnog uništenja, ali i o chatbotu koji bi mogao ugroziti mentalno zdravlje korisnika.

'Ne govorimo samo o egzistencijalnim prijetnjama', rekao je Kolter u razgovoru za Associated Press. 'Riječ je o cijelom spektru pitanja sigurnosti i zaštite koji nastaju kad koristimo AI sustave jer su sveprisutni i masovno dostupni.'

OpenAI je imenovao Koltera predsjednikom povjerenstva prije više od godinu dana, no njegova uloga postala je posebno važna prošlog tjedna, nakon što su regulatori u Kaliforniji i Delawareu uvrstili njegov nadzor kompanije kao uvjet za odobrenje njezine nove poslovne strukture, a ona joj omogućuje lakše prikupljanje kapitala i ostvarivanje profita.

Sigurnost je bila temeljno načelo OpenAI-a još od njegova osnutka 2015., kad je djelovao kao neprofitni istraživački laboratorij s misijom 'razvoja nadljudske umjetne inteligencije u korist čovječanstva'. No nakon što je ChatGPT izazvao globalnu AI revoluciju, kompanija se našla pod optužbama da prebrzo izbacuje proizvode da bi zadržala prednost pred konkurencijom.

Unutarnji sukobi koji su 2023. godine doveli do kratkotrajnog odlaska izvršnog direktora Sama Altmana samo su pojačali sumnje da se tvrtka udaljila od svoje izvorne misije.

Sigurnost ispred profita

Ugovori koje su prošlog tjedna objavili OpenAI i državni odvjetnici Kalifornije i Delawarea imaju cilj vratiti povjerenje javnosti. U središtu dogovora stoji obveza da odluke o sigurnosti i zaštiti moraju imati prednost pred financijskim interesima, čak i u novom modelu poslovanja, prema kojem će OpenAI djelovati kao 'javna korporacija od društvene koristi' pod nadzorom neprofitne OpenAI-eve zaklade.

Kolter će biti član neprofitnog, ne i profitnog odbora, no imat će puno pravo uvida u sastanke i dokumente uprave koja donosi odluke o sigurnosti AI-a, što je formalizirano u službenom memorandumu kalifornijskog državnog odvjetnika Roba Bonte.

Osim Bonte, Kolter je jedina osoba izrijekom spomenuta u dokumentu te je rekao kako novi dogovori potvrđuju da njegovo povjerenstvo zadržava postojeće ovlasti. Uz njega, u timu su još tri člana uprave OpenAI-a, među kojima je i umirovljeni američki general Paul Nakasone, bivši zapovjednik kibernetičkog zapovjedništva SAD-a. Altman je prošle godine izašao iz povjerenstva, čime mu je dana veća samostalnost.

'Možemo zatražiti odgodu objave modela dok se ne ispune određene mjere zaštite', rekao je Kolter. Na pitanje je li povjerenstvo već koristilo tu ovlast, odbio je odgovoriti zbog povjerljivosti postupaka. U nadolazećim mjesecima, kaže, pojavit će se nova pitanja vezana uz sigurnost AI sustava, od kibernetičke zaštite do rizika zlouporabe modela u biotehnologiji ili kibernetičkim napadima.

'Tu su i teme koje dosad nismo imali – poput toga omogućuju li modeli zlonamjernim korisnicima veće sposobnosti pri dizajniranju biološkog oružja ili izvođenju napada', ističe. 'I na kraju, postoji i utjecaj na ljude – mentalno zdravlje, emocionalne reakcije i ovisnost o interakciji s modelima. Sve to moramo adresirati iz perspektive sigurnosti.'

ChatGPT pod istragom i na sudu

OpenAI se već ove godine našao u središtu kontroverzi. Tvrtka se suočava s tužbom roditelja iz Kalifornije koji tvrde da je njihov sin počinio samoubojstvo nakon višemjesečnih razgovora s ChatGPT-jem.

Kolter, koji danas vodi Odjel za strojno učenje na Carnegie Mellonu, bavi se umjetnom inteligencijom od ranih 2000-ih, još dok je bio student na Georgetownu. 'Tada je strojno učenje bilo ezoterično područje', prisjetio se. 'Izbjegavali smo pojam AI jer se smatralo da je to zastarjelo područje koje je previše obećavalo, a premalo toga isporučilo.'

Danas, u 42. godini, priznaje da ni sam nije očekivao ovako brzu ekspanziju umjetne inteligencije: 'Vrlo malo ljudi, čak i među stručnjacima, moglo je predvidjeti ovu eksploziju sposobnosti, ali i rizika s kojima se sada suočavamo.'

Promatrači i zagovornici sigurnosti AI-a sada pažljivo prate Kolterov rad i restrukturiranje OpenAI-a. Nathan Calvin, pravni savjetnik male AI neprofitne organizacije Encode i jedan od najglasnijih kritičara OpenAI-a, kaže da je 'oprezno optimističan'.

'Kolter ima pozadinu koja ima smisla za ovu ulogu. Čini se kao dobar izbor', rekao je Calvin, koji je i sam bio meta OpenAI-eve sudske istrage u postupku protiv Elona Muska. 'Ako odbor doista ozbiljno shvati svoje obveze, ovo bi moglo biti veliko poglavlje za transparentnost i odgovornost. No postoji i mogućnost da sve ostane samo mrtvo slovo na papiru. Još ne znamo u kojem smo od ta dva scenarija.'