Europskoj uniji trebat će najmanje još godinu dana da utvrdi kako primijeniti svoj Zakon o digitalnim uslugama (DSA) na nadzor rizika povezanih s ChatGPT-jem
Upotreba tog alata umjetne inteligencije ubrzano raste u Europi, a OpenAI je ovog mjeseca objavio da je dosegnuo prag za regulatorni nadzor – više od 120 milijuna ljudi koristi ChatGPT-jevu tražilicu svakog mjeseca. Ta brojka nije iznenadila Europsku komisiju, rekla su za Politico dvojica dužnosnika, no regulatori još nisu odlučili kako točno tretirati ChatGPT u okviru DSA-a, a koji je na snazi od početka 2024. godine.
Odluka se očekuje tek sredinom 2026., potvrdio je visoki dužnosnik Komisije. Riječ je o testnom slučaju koji će pokazati koliko je EU spreman nositi se s rizicima velikih jezičnih modela jer sve više postaju jednako prisutni u životima korisnika kao i tradicionalne tražilice.
Zakon stariji od ChatGPT-ja
Sporost procesa ukazuje i na to da je ovaj ključni europski digitalni zakon nastao prije nego što je ChatGPT postao globalni fenomen. Njegove definicije ne obuhvaćaju jasno AI chatbotove, što Bruxelles dovodi u situaciju da zaostaje za razvojem dok se rizici sve više konkretiziraju.
OpenAI je nedavno priznao da oko 1,2 milijuna ljudi tjedno s ChatGPT-jem vodi razgovore koji upućuju na 'suicidalne misli' te da u 'rijetkim slučajevima model možda ne reagira onako kako bi trebao u osjetljivim situacijama'.
'Za industriju naviknutu na dobrovoljne AI standarde i samonametnute sigurnosne okvire zakonski obvezan režim dubinske procjene rizika iz DSA-a mogao bi biti ozbiljan test stvarnosti', rekao je Mathias Vermeulen, direktor briselske pravne i konzultantske agencije AWO.
'OpenAI će morati znatno podići ljestvicu jer kopiranje postojećih praksi više neće biti dovoljno', dodao je.
Tvrtka se nije izravno osvrnula na kritike, već je uputila na svoje mrežne stranice s informacijama o usklađenosti s DSA-em, uz napomenu da se broj od 120 milijuna ljudi odnosi na korisnike koji koriste funkciju pretraživanja, a ne na cjelokupan servis ChatGPT.
Preklapanje dvaju zakona
ChatGPT već sada podliježe Zakonu o umjetnoj inteligenciji (AI Act), a on je stupio na snagu u kolovozu i obvezuje OpenAI da procijeni i ublaži rizike, uz moguće kazne do 15 milijuna eura u slučaju nepoštivanja odredbi.
No s više od 120 milijuna aktivnih korisnika mjesečno, ChatGPT premašuje prag od 45 milijuna korisnika koji EU koristi za klasifikaciju vrlo velikih internetskih platformi i tražilica u okviru DSA-a. Kada i formalno potpadne pod DSA, OpenAI bi mogao biti kažnjen s do šest posto godišnjeg globalnog prihoda.
Kako će se OpenAI morati uskladiti, to ovisi o tumačenju Komisije. ChatGPT 'nije bio predviđen zakonom', ali se 'uklapa u tekst propisa', izjavio je Martin Husovec, profesor prava na London School of Economics. Zakon naime razlikuje dvije glavne kategorije: vrlo velike internetske platforme i vrlo velike tražilice, a one podliježu najstrožim pravilima.
'Ključno pitanje je opseg definicije ChatGPT-ja', objašnjava Joris Van Hoboken, profesor prava i stručnjak za AI regulaciju na Sveučilištu Vrije u Bruxellesu.
Komisija bi mogla definirati ChatGPT samo kao tražilicu, što bi ograničilo obveze OpenAI-a, ili šire – tako da obuhvati cijelu uslugu. Što je definicija šira, to će i obveze biti veće: OpenAI će morati procijeniti razinu rizika koju chatbot predstavlja za izbore, javno zdravstvo i građanska prava, ublažiti ih i izvijestiti Komisiju opsežnim izvješćem o usklađenosti.
Procjene rizika moraju uključivati 'dizajn sustava preporuka i sve druge relevantne algoritamske sustave', stoji u zakonu. To bi moglo postati vrlo zahtjevno ako Komisija odluči da nadzor treba obuhvatiti sam jezični model koji pokreće ChatGPT, a ne samo njegove rezultate pretraživanja.
Uža definicija, s druge strane, mogla bi OpenAI-u olakšati obveze, primjerice izuzeće od pravila o 'obavijesti i uklanjanju sadržaja', koje vrijedi za platforme, a ne za tražilice. Ako se odluka donese sredinom 2026. godine, obveze za OpenAI vezane uz DSA počele bi se primjenjivati u posljednjem tromjesečju iduće godine.
OpenAI bi odluku o klasifikaciji mogao i pravno osporiti, kao što su to pokušavale i druge platforme, no bez uspjeha. Takav postupak produžio bi proces, upozorava Joao Pedro Quintais, izvanredni profesor prava vezanog uz informacije na Sveučilištu u Amsterdamu.
Dva zakona, različiti rizici
I dalje postoje nejasnoće o preklapanju DSA-a i AI Acta, dvaju ključnih europskih zakona koji uređuju digitalne servise i umjetnu inteligenciju.
AI Act i DSA osmišljeni su tako da se dopunjuju u slučajevima u kojima je umjetna inteligencija integrirana u digitalne usluge, primjerice u Googleovim AI pregledima (AI Overviews), ali nisu prilagođeni tzv. vertikalno integriranim AI pružateljima, poput OpenAI-a, koji sam razvija i distribuira tehnologiju. Ta dva okvira koriste različite sustave procjene rizika.
AI Act klasificira modele prema četirima razinama rizika – neprihvatljiv, visok, ograničen te minimalan ili nikakav – a DSA propisuje četiri kategorije 'sistemskih rizika' koje platforme i tražilice moraju procijeniti i ublažiti: građanski integritet, izbori, javno zdravstvo i temeljna prava.
U slučajevima u kojima su AI funkcionalnosti dio vrlo velikih platformi ili tražilica, poput Googlea, pretpostavlja se da su već u skladu s AI Actom ako podnose procjene u okviru DSA-a. To znači da neke domene regulacije, poput dezinformacija i deepfake sadržaja, prelaze pod DSA, a druge, primjerice upotreba ChatGPT-ja u zapošljavanju, ostaju u okviru AI Acta.
Zbog toga bi, prema Quintaisu, moglo doći do regulatornih praznina jer se dva sustava nadzora ne preklapaju savršeno. Tvrtka bi, dodaje on, mogla imati koristi i od odredbi 'safe harbor', točnije zakonskih zaštita prema kojima platforme i tražilice nisu odgovorne za sadržaj koji objavljuju njihovi korisnici.