OBJAVIO I SCENARIJ

AI apokalipsa se odgađa? Upozoravao na smak svijeta do 2027., predomislio se pa pomaknuo rok

09.01.2026 u 13:17

Bionic
Reading

Bivši zaposlenik OpenAI-a Daniel Kokotajlo tvrdi da je napredak opće umjetne inteligencije (AGI) 'nešto sporiji' nego što se prvotno mislilo

Jedan od vodećih stručnjaka za umjetnu inteligenciju ublažio je svoja upozorenja o 'apokalipsi uzrokovanoj AI-em', priznajući da će trebati više vremena nego što je ranije predviđao da sustavi postanu sposobni samostalno pisati kod i time ubrzati svoj razvoj prema superinteligenciji, piše Guardian.

Daniel Kokotajlo, bivši zaposlenik OpenAI-a koji je napustio tvrtku upravo zbog sigurnosnih razloga, u travnju je potaknuo burnu raspravu objavom scenarija AI 2027, a on opisuje nekontrolirani razvoj umjetne inteligencije koji bi doveo do stvaranja superinteligentnog sustava što nadmudruje svjetske vođe i na kraju uništava čovječanstvo.

Ni na čije iznenađenje, scenarij je brzo stekao brojne pristaše i kritičare. Američki potpredsjednik J.D. Vance prošlog se svibnja u jednom intervjuu neizravno osvrnuo na AI 2027 govoreći o američko-kineskoj utrci u umjetnoj inteligenciji. S druge strane, Gary Marcus, profesor emeritus neuroznanosti sa Sveučilišta u New Yorku, opisao je tekst kao 'djelo fikcije' i dio zaključaka nazvao 'čistom znanstvenofantastičnom besmislicom'.

Rasprave o vremenskom okviru za takozvanu transformativnu umjetnu inteligenciju, često nazivanu AGI (opća umjetna inteligencija), postale su uobičajene u krugovima koji se bave sigurnošću AI-a. Lansiranje ChatGPT-ja 2022. godine ubrzalo je ta predviđanja, pa su pojedini dužnosnici i stručnjaci počeli govoriti o razvoju AGI-a u nekoliko godina ili desetljeća.

2027. je trebala biti ta godina

Kokotajlo i njegov tim u početnoj su verziji scenarija 2027. označili kao godinu u kojoj bi AI mogao postići 'potpuno autonomno programiranje', iako su naglasili da je riječ o najvjerojatnijoj, a ne jedinoj procjeni. Sada se, međutim, pojavljuju sumnje u to koliko je AGI uopće blizu, pa čak i u to ima li sam pojam još smisla.

'Mnogi su u protekloj godini pomaknuli svoje rokove dalje u budućnost jer su shvatili koliko je izvedba AI sustava neujednačena', rekao je Malcolm Murray, stručnjak za upravljanje rizicima povezanima s umjetnom inteligencijom i jedan od autora Međunarodnog izvješća o sigurnosti AI-a. Dodao je da bi za ostvarenje scenarija poput AI 2027 sustavi morali imati znatno više praktičnih vještina za snalaženje u stvarnoj složenosti svijeta te da postoji golema inercija u društvu koja usporava temeljite promjene.

AI koji uništava čovječanstvo zbog solarnih panela i pomicanje rokova

Slično razmišlja i Henry Papadatos, izvršni direktor francuske neprofitne organizacije SaferAI. Prema njemu, pojam AGI imao je više smisla kada su AI sustavi bili vrlo usko specijalizirani, primjerice za igranje šaha ili goa. Danas, kaže, imamo sustave koji su već prilično općeniti, pa termin gubi jasnoću.

Izvorni scenarij AI 2027 temeljio se na pretpostavci da će AI agenti do 2027. godine u potpunosti automatizirati programiranje i istraživanje AI-a, što bi dovelo do 'eksplozije inteligencije', procesa u kojem stvara sve pametnije verzije same sebe. U jednoj od mogućih verzija tog scenarija, takav sustav do sredine 2030. godine uništio bi čovječanstvo kako bi oslobodio prostor za solarne panele i podatkovne centre, no te su prognoze izostavljene iz nove verzije.

U najnovijoj nadogradnji Kokotajlo i njegovi koautori revidirali su ta očekivanja. Sada smatraju da će potpuno autonomno programiranje vjerojatnije nastupiti početkom 2030-ih, a ne 2027. godine. Nova procjena pomiče pojavu superinteligencije na oko 2034., bez ikakve prognoze o mogućem uništenju čovječanstva.

'Stvari se očito odvijaju nešto sporije nego što je predviđao scenarij AI 2027. Naši su rokovi već tada bili dulji od 2027., a sada su još malo produljeni', napisao je Kokotajlo u objavi na X-u.

Unatoč tome, razvoj AI sustava sposobnih za samostalno provođenje istraživanja i dalje je cilj vodećih tehnoloških tvrtki. Izvršni direktor OpenAI-a Sam Altman izjavio je u listopadu da je imati automatiziranog AI istraživača do ožujka 2028. godine 'interni cilj' kompanije, uz napomenu da u tome 'mogu potpuno podbaciti'.

Andrea Castagna, istraživač AI politika iz Bruxellesa, ističe da dramatične prognoze često zanemaruju brojne praktične prepreke. 'Čak i ako imate superinteligentno računalo usmjereno na vojnu primjenu, to ne znači da ga možete jednostavno uklopiti u strateške dokumente koje razvijamo već dvadeset godina', rekao je. 'Što više razvijamo umjetnu inteligenciju, to jasnije vidimo da stvarni svijet nije znanstvena fantastika. On je puno složeniji.'