KRITIČaN TRENUTAK

Žestoka bitka za premoć u tehnologiji koja će promijeniti čovječanstvo: Tko vodi, a tko posustaje?

25.11.2025 u 20:57

Bionic
Reading

Dok se vlade, regulatori, tehnološki divovi i vodeći istraživači sukobljavaju oko arhitekture regulacije, ugledni znanstvenici zvone na uzbunu

Ova bi se godina mogla pokazati jednim od najkritičnijih trenutaka u tehnološkoj povijesti. Umjetna inteligencija više nije obećanje ili nejasna prijetnja budućnosti, jer već je ovdje te preoblikuje gospodarstva, preokreće ravnotežu moći, utječe na izbore i postavlja pitanja o granicama ljudske odgovornosti.

Vlade, regulatori, tehnološki divovi i vodeći istraživači sukobljavaju se oko arhitekture regulacije: koja pravila postaviti, na koga će biti primjenjivana, tko će biti zaštićen te tko će imati moć poremetiti ili certificirati snažan model umjetne inteligencije.

Europa napreduje sa Zakonom o umjetnoj inteligenciji, Sjedinjene Države pokušavaju izgraditi fleksibilniji model vođen inovacijama dok Kina nastoji kombinirati tehnološko vodstvo sa strogom državnom kontrolom. U međuvremenu znanstvenici poput Geoffreyja Hintona, Yoshue Bengija, Stuarta Russella i Timnita Gebrua oglašavaju uzbunu.

Europska unija: Najambiciozniji - i najrigorozniji - pristup

Europska unija je prva regija u svijetu koja je odlučila da umjetnoj inteligenciji treba sveobuhvatan institucionalni okvir. Zakon o umjetnoj inteligenciji pokušava uvesti jedinstvenu kategorizaciju rizika: neprihvatljiv, visok, ograničen i nizak rizik.

Logika je jasna: zaštititi građane, temeljna prava i izbjeći zloupotrebe u ključnim područjima kao što su zdravstvo, pravosuđe, obrazovanje i javna uprava. Ali vrag je u detaljima. U središtu europske zabrinutosti je ideja da se umjetna inteligencija ne može prepustiti potpunoj tržišnoj slobodi, već mora djelovati u sigurnom okruženju.

Međutim mnoge tehnološke tvrtke tvrde da pretjerana regulacija guši inovacije i ograničava napredak. Europa pokušava postati regulatorni model planeta, ali suočava se s kolosalnim problemom: nema vlastite tehnološke divove koji bi provodili njezinu strategiju u velikim razmjerima.

Tehnološke tvrtke strahuju da će regulacija usporiti inovacije, a mnoga mala i srednja poduzeća zabrinuta su zbog troškova usklađivanja. S druge strane, organizacije za tehnološka prava tvrde da zakon nije dovoljno strog za najmoćnije sustave, takozvane granične modele.

Sjedinjene Američke Države: Regulacija na mala vrata

SAD nema jedinstven zakon, već koristi izvršne uredbe, smjernice za savezne agencije, zakonodavne inicijative na državnoj razini i kontrolu izvoza naprednih čipova.

Washington usvaja načelo: ne gušiti inovacije. Američki model želi tako dati tvrtkama prostor za rast, ali istovremeno administracija pokušava ograničiti širenje strateških tehnologija u Kinu kontrolom izvoza.

Američki predsjednik Donald Trump razmatra i pritisak na savezne države da bi zaustavio državnu regulaciju umjetne inteligencije.

Kina: Kontrola, brzina i strateška superiornost

Kina je usvojila neke od najstrožih, ali najbržih propisa na svijetu. Od 2022. godine ima propis o algoritmima, pravila za deepfakeove i sofisticiran sustav državnog licenciranja. Filozofija se temelji na državnom nadzoru: umjetna inteligencija je strateška infrastruktura i mora biti u skladu s interesima države.

Kineski pristup omogućuje vrlo brzo usvajanje novih tehnologija u velikim razmjerima, ali kritiziran je zbog nedostatka transparentnosti, odsutnosti neovisne kontrole i ograničenja slobode korištenja.

Yoshua Bengio: Najmoćniji modeli ne bi smjeli ostati neregulirani

Bengio, jedan od tri 'kuma' umjetne inteligencije, postao je najglasniji zagovornik reguliranja graničnih modela - ogromnih sustava koji mogu steći nepredvidive mogućnosti.

Predlaže:

  • neovisno testiranje sigurnosti
  • obaveznu transparentnost podataka o obuci
  • međunarodnu koordinaciju sličnu onoj za nuklearnu energiju.

Geoffrey Hinton boji se vlastite kreacije

Hinton, koji je napustio Google da bi mogao slobodno govoriti, možda je najznačajnija figura u toj raspravi. U svojim govorima objašnjava da modeli velikih razmjera razvijaju nepredvidivo ponašanje.

Stoga inzistira na:

  • međunarodnoj suradnji
  • ograničenjima autonomije sustava
  • postupnom prijelazu na sigurne arhitekture.

Stuart Russell: Izgradili smo strojeve koje ne znamo kontrolirati

Russell, jedan od najuglednijih akademika u području sigurnosti umjetne inteligencije, tvrdi da je najosnovnija pogreška dizajn sustava koji maksimizira cilj.

Uvjeren je da sustavi trebaju biti nesigurni u pogledu svojih ciljeva jer ih tek tada ljudi mogu ispraviti i predlaže novu arhitekturu: AI sustave koji se pokoravaju ljudima.

Timnit Gebru: Glas etike i odgovornosti

Gebru, koji je 'uklonjen' iz Googlea zbog kontroverzi oko etike umjetne inteligencije, naglašava da rasprava ne može biti samo o sigurnosti, već mora biti i o pravednosti. Ističe pritom rizike od diskriminacije, pristranosti i društvene nejednakosti.

Tko će postaviti pravila?

EU, SAD i Kina imaju potpuno različite modele regulacije zbog čega tvrtke posluju poput 'multinacionalnih kompanija u tri svijeta'.

Sve se više postavlja pitanje može li se umjetna inteligencija regulirati na nacionalnoj razini, a za većinu stručnjaka odgovor je negativan.

Dilema transparentnosti

Veliki modeli su kao 'crne kutije' te čak ni njihovi tvorci ne mogu u potpunosti objasniti zašto daju određene odgovore.

Granični modeli i crna rupa moći

Granični modeli u sljedeće dvije godine imat će tisuće puta više parametara od trenutnih. Moći će:

  • autonomno generirati računalni kod
  • provoditi znanstvena istraživanja
  • upravljati krizama
  • izvršavati složene zadatke bez ljudskog nadzora.

Tko će ih certificirati? Tko će odlučiti jesu li sigurni?

Prema novoj međunarodnoj regulatornoj arhitekturi

Stručnjaci uključeni u međunarodne inicijative (G7, OECD, Savjetodavni odbor UN-a za umjetnu inteligenciju i drugi) predlažu novi model globalne suradnje. Ova arhitektura uključuje:

  • Frontier AI International Certification Authority (Međunarodno tijelo za certifikaciju Frontier AI; frontier tvrtke, odnosno tvrtke koje su istraživači i kreatori modela što pomiču granice umjetne inteligencije)
  • međunarodno tijelo koje će testirati modele prije njihovog objavljivanja, procjenjivati mogućnosti, rizike i ranjivosti te izdavati obvezujuće certifikate.

Registar za obrazovanje i transparentnost

Obavezno otkrivanje:

  • resursa za obuku
  • računalne snage
  • osnovnih načela rada modela.

Obavezni testovi sigurnosti

Sigurnosni testovi će ispitati:

  • sposobnost dezinformiranja
  • sposobnost generiranja zlonamjernog koda
  • manipulaciju neželjene sposobnosti u nastajanju.

Građanska prava u doba umjetne inteligencije

Ona se odnose na privatnost, pravo na objašnjenje, pravo da se ne bude profiliran bez pristanka te pravo na ljudski nadzor.

Ekonomski poticaji za sigurne inovacije

U njih se ubrajaju subvencije za sigurne modele, porezni poticaji za implementaciju standarda i financiranje malih laboratorija da inovacije ne bi monopolizirali veliki igrači u tom području.

Globalni sporazum o općoj umjetnoj inteligenciji i Frontier AI-u

Međunarodni ugovor, kojim se postavljaju ograničenja na razvoj modela što nadilaze specifične računalne mogućnosti, mora biti sklopljen, smatraju mnogi znanstvenici, prije nego što se pojave sustavi s općom inteligencijom na ljudskoj razini.

Tko će pobijediti u bitki?

Bitka za regulaciju umjetne inteligencije nije samo institucionalna. Ona je također:

  • ekonomska (tko će voditi industriju)
  • geopolitička (tko će postaviti globalne standarde)
  • društvena (tko će biti zaštićen)
  • demokratska (tko će kontrolirati informacije).

Veliko pitanje glasi: hoće li umjetna inteligencija služiti društvu ili ga definirati? Odgovor ovisi o odlukama donesenima u sljedeće dvije godine, a prozor neće dugo ostati otvoren, piše Euro News.