Umjetna inteligencija mogla bi biti 'posljednja tehnologija koju će čovječanstvo razviti', upozoravaju stručnjaci za sigurnost AI-a, iako je tzv. doom timeline – scenarij koji predviđa trenutak u kojem nadmašuje i potiskuje ljude – sada pomaknut za nekoliko godina
Istraživački projekt AI 2027, koji je u travnju 2025. godine objavila skupina AI Futures, predstavio je scenarij prema kojem bi umjetna inteligencija već 2027. mogla razviti superinteligenciju i sposobnost potpuno autonomnog programiranja, čime bi preuzela kontrolu nad vlastitim razvojem. U najcrnjem ishodu takav razvoj događaja završava – uništenjem čovječanstva.
U novoj verziji modela, objavljenoj krajem prosinca, AI Futures je revidirao procjene. Prema ažuriranim predviđanjima, ključne sposobnosti – poput autonomnog kodiranja i superinteligencije – pojavit će se kasnije nego što se prvotno mislilo.
Voditelj projekta Daniel Kokotajlo objasnio je promjenu u objavi na platformi X: 'Razvoj zasad ide nešto sporije nego što je predviđao scenarij AI 2027. Naše su procjene i tada išle dalje od 2027., a sada smo ih dodatno pomaknuli.' Prema njegovim riječima, nova gruba procjena sada se kreće oko 2030. godine, uz naglasak da je razina neizvjesnosti i dalje vrlo visoka.
Od automatizacije koda do superinteligencije
Izvorni model predviđao je da bi AI već 2027. mogao nadmašiti ljude u većini kognitivnih zadataka, a zatim ubrzati svoj razvoj prema umjetnoj superinteligenciji. U jednoj od simulacija, do 2030. godine pojavio bi se sveobuhvatni AI sustav koji bi svijet počeo prilagođavati sebi, a ne ljudima, uklanjajući 'potencijalne prijetnje'.
U najradikalnijem scenariju ljudi postaju suvišni, a AI početkom 2030-ih 'čisti teren' da bi stvorio infrastrukturu koja služi isključivo njemu, prenosi Independent.
Nova verzija modela znatno je opreznija: autonomno kodiranje – tijekom 2030-ih, superinteligencija – oko 2034., bez preciznog datuma za moguću dominaciju AI-a nad čovječanstvom. Apokalipsa je možda odgođena, ali ne i otkazana, navode stručnjaci.
Projekt je od samog početka izazvao burne reakcije. Gary Marcus, umirovljeni profesor neuroznanosti na Sveučilištu New York, usporedio je cijelu ovu priču s Netflixovim trilerom, nazvavši je 'čistim znanstvenofantastičnim besmislicama' u objavi na Substacku.
Dr. Fazl Barez, viši istraživački suradnik na Sveučilištu u Oxfordu te stručnjak za sigurnost, interpretabilnost i upravljanje AI-em, pak kaže da se ne slaže s rokovima, ali smatra da projekt otvara ključna pitanja.
'Među stručnjacima zapravo nema neslaganja oko toga da bi, ako ne riješimo problem usklađivanja i sigurnosti, AI potencijalno mogao postati posljednja tehnologija koju ćemo izgraditi', rekao je za The Independent. 'Koliko smo daleko i kolika je vjerojatnost toga, to je i dalje otvoreno pitanje.'
Dr. Barez upozorava da se razvoj AI-a trenutačno odvija puno brže od razvoja sigurnosnih mehanizama, opisujući tempo napretka kao kretanje 'brzinom svjetlosti'. 'Još uvijek nismo shvatili kako spriječiti loše posljedice, ali ni one koje samo pojačavaju postojeće društvene probleme', kaže. 'Problemi već postoje, tehnologija samo dramatično ubrzava tempo njihova širenja.'
Iako ne želi nagađati o rokovima, Barez ističe da je ključno osigurati da AI ostane u službi ljudi, a ne da ih zamijeni.
'Stvarni problem je postupan gubitak kontrole čovječanstva. Gubimo sposobnost da sami mislimo i djelujemo kako raste naša ovisnost o tehnologiji', upozorava. 'Danas tražite sustav da vam napiše e-mail. Sutra možda sam odluči što će napisati i poslati, i to prema vlastitim vrijednostima.'