Dok se vlade, regulatori, tehnološki divovi i vodeći istraživači sukobljavaju oko arhitekture regulacije, ugledni znanstvenici zvone na uzbunu
Ova bi se godina mogla pokazati jednim od najkritičnijih trenutaka u tehnološkoj povijesti. Umjetna inteligencija više nije obećanje ili nejasna prijetnja budućnosti, jer već je ovdje te preoblikuje gospodarstva, preokreće ravnotežu moći, utječe na izbore i postavlja pitanja o granicama ljudske odgovornosti.
Vlade, regulatori, tehnološki divovi i vodeći istraživači sukobljavaju se oko arhitekture regulacije: koja pravila postaviti, na koga će biti primjenjivana, tko će biti zaštićen te tko će imati moć poremetiti ili certificirati snažan model umjetne inteligencije.
Europa napreduje sa Zakonom o umjetnoj inteligenciji, Sjedinjene Države pokušavaju izgraditi fleksibilniji model vođen inovacijama dok Kina nastoji kombinirati tehnološko vodstvo sa strogom državnom kontrolom. U međuvremenu znanstvenici poput Geoffreyja Hintona, Yoshue Bengija, Stuarta Russella i Timnita Gebrua oglašavaju uzbunu.
Europska unija: Najambiciozniji - i najrigorozniji - pristup
Europska unija je prva regija u svijetu koja je odlučila da umjetnoj inteligenciji treba sveobuhvatan institucionalni okvir. Zakon o umjetnoj inteligenciji pokušava uvesti jedinstvenu kategorizaciju rizika: neprihvatljiv, visok, ograničen i nizak rizik.
Logika je jasna: zaštititi građane, temeljna prava i izbjeći zloupotrebe u ključnim područjima kao što su zdravstvo, pravosuđe, obrazovanje i javna uprava. Ali vrag je u detaljima. U središtu europske zabrinutosti je ideja da se umjetna inteligencija ne može prepustiti potpunoj tržišnoj slobodi, već mora djelovati u sigurnom okruženju.
Međutim mnoge tehnološke tvrtke tvrde da pretjerana regulacija guši inovacije i ograničava napredak. Europa pokušava postati regulatorni model planeta, ali suočava se s kolosalnim problemom: nema vlastite tehnološke divove koji bi provodili njezinu strategiju u velikim razmjerima.
Tehnološke tvrtke strahuju da će regulacija usporiti inovacije, a mnoga mala i srednja poduzeća zabrinuta su zbog troškova usklađivanja. S druge strane, organizacije za tehnološka prava tvrde da zakon nije dovoljno strog za najmoćnije sustave, takozvane granične modele.
Sjedinjene Američke Države: Regulacija na mala vrata
SAD nema jedinstven zakon, već koristi izvršne uredbe, smjernice za savezne agencije, zakonodavne inicijative na državnoj razini i kontrolu izvoza naprednih čipova.
Washington usvaja načelo: ne gušiti inovacije. Američki model želi tako dati tvrtkama prostor za rast, ali istovremeno administracija pokušava ograničiti širenje strateških tehnologija u Kinu kontrolom izvoza.
Američki predsjednik Donald Trump razmatra i pritisak na savezne države da bi zaustavio državnu regulaciju umjetne inteligencije.
Kina: Kontrola, brzina i strateška superiornost
Kina je usvojila neke od najstrožih, ali najbržih propisa na svijetu. Od 2022. godine ima propis o algoritmima, pravila za deepfakeove i sofisticiran sustav državnog licenciranja. Filozofija se temelji na državnom nadzoru: umjetna inteligencija je strateška infrastruktura i mora biti u skladu s interesima države.
Kineski pristup omogućuje vrlo brzo usvajanje novih tehnologija u velikim razmjerima, ali kritiziran je zbog nedostatka transparentnosti, odsutnosti neovisne kontrole i ograničenja slobode korištenja.
Yoshua Bengio: Najmoćniji modeli ne bi smjeli ostati neregulirani
Bengio, jedan od tri 'kuma' umjetne inteligencije, postao je najglasniji zagovornik reguliranja graničnih modela - ogromnih sustava koji mogu steći nepredvidive mogućnosti.
Predlaže:
- neovisno testiranje sigurnosti
- obaveznu transparentnost podataka o obuci
- međunarodnu koordinaciju sličnu onoj za nuklearnu energiju.
Geoffrey Hinton boji se vlastite kreacije
Hinton, koji je napustio Google da bi mogao slobodno govoriti, možda je najznačajnija figura u toj raspravi. U svojim govorima objašnjava da modeli velikih razmjera razvijaju nepredvidivo ponašanje.
Stoga inzistira na:
- međunarodnoj suradnji
- ograničenjima autonomije sustava
- postupnom prijelazu na sigurne arhitekture.
Stuart Russell: Izgradili smo strojeve koje ne znamo kontrolirati
Russell, jedan od najuglednijih akademika u području sigurnosti umjetne inteligencije, tvrdi da je najosnovnija pogreška dizajn sustava koji maksimizira cilj.
Uvjeren je da sustavi trebaju biti nesigurni u pogledu svojih ciljeva jer ih tek tada ljudi mogu ispraviti i predlaže novu arhitekturu: AI sustave koji se pokoravaju ljudima.
Timnit Gebru: Glas etike i odgovornosti
Gebru, koji je 'uklonjen' iz Googlea zbog kontroverzi oko etike umjetne inteligencije, naglašava da rasprava ne može biti samo o sigurnosti, već mora biti i o pravednosti. Ističe pritom rizike od diskriminacije, pristranosti i društvene nejednakosti.
Tko će postaviti pravila?
EU, SAD i Kina imaju potpuno različite modele regulacije zbog čega tvrtke posluju poput 'multinacionalnih kompanija u tri svijeta'.
Sve se više postavlja pitanje može li se umjetna inteligencija regulirati na nacionalnoj razini, a za većinu stručnjaka odgovor je negativan.
Dilema transparentnosti
Veliki modeli su kao 'crne kutije' te čak ni njihovi tvorci ne mogu u potpunosti objasniti zašto daju određene odgovore.
Granični modeli i crna rupa moći
Granični modeli u sljedeće dvije godine imat će tisuće puta više parametara od trenutnih. Moći će:
- autonomno generirati računalni kod
- provoditi znanstvena istraživanja
- upravljati krizama
- izvršavati složene zadatke bez ljudskog nadzora.
Tko će ih certificirati? Tko će odlučiti jesu li sigurni?
Prema novoj međunarodnoj regulatornoj arhitekturi
Stručnjaci uključeni u međunarodne inicijative (G7, OECD, Savjetodavni odbor UN-a za umjetnu inteligenciju i drugi) predlažu novi model globalne suradnje. Ova arhitektura uključuje:
- Frontier AI International Certification Authority (Međunarodno tijelo za certifikaciju Frontier AI; frontier tvrtke, odnosno tvrtke koje su istraživači i kreatori modela što pomiču granice umjetne inteligencije)
- međunarodno tijelo koje će testirati modele prije njihovog objavljivanja, procjenjivati mogućnosti, rizike i ranjivosti te izdavati obvezujuće certifikate.
Registar za obrazovanje i transparentnost
Obavezno otkrivanje:
- resursa za obuku
- računalne snage
- osnovnih načela rada modela.
Obavezni testovi sigurnosti
Sigurnosni testovi će ispitati:
- sposobnost dezinformiranja
- sposobnost generiranja zlonamjernog koda
- manipulaciju neželjene sposobnosti u nastajanju.
Građanska prava u doba umjetne inteligencije
Ona se odnose na privatnost, pravo na objašnjenje, pravo da se ne bude profiliran bez pristanka te pravo na ljudski nadzor.
Ekonomski poticaji za sigurne inovacije
U njih se ubrajaju subvencije za sigurne modele, porezni poticaji za implementaciju standarda i financiranje malih laboratorija da inovacije ne bi monopolizirali veliki igrači u tom području.
Globalni sporazum o općoj umjetnoj inteligenciji i Frontier AI-u
Međunarodni ugovor, kojim se postavljaju ograničenja na razvoj modela što nadilaze specifične računalne mogućnosti, mora biti sklopljen, smatraju mnogi znanstvenici, prije nego što se pojave sustavi s općom inteligencijom na ljudskoj razini.
Tko će pobijediti u bitki?
Bitka za regulaciju umjetne inteligencije nije samo institucionalna. Ona je također:
- ekonomska (tko će voditi industriju)
- geopolitička (tko će postaviti globalne standarde)
- društvena (tko će biti zaštićen)
- demokratska (tko će kontrolirati informacije).
Veliko pitanje glasi: hoće li umjetna inteligencija služiti društvu ili ga definirati? Odgovor ovisi o odlukama donesenima u sljedeće dvije godine, a prozor neće dugo ostati otvoren, piše Euro News.