akt o ai-ju

Umjetna inteligencija munjevito se razvija, a uskoro stižu stroga pravila: Što će EU zabraniti?

06.04.2023 u 22:17

Bionic
Reading

Iz EU-a su najavili da će Akt o umjetnoj inteligenciji ugledati svjetlo dana već krajem ove godine. Bit će to presedan, a kako se nadaju, odredit će pravila igre u cijelom svijetu. No hoće li novi zakon koji regulira tako brzorastuću tehnologiju biti otporan na budućnost? Što je s Chat GPT-jem? Kako će tržište tehnologije na kojoj počiva naša budućnost reagirati na ove regulacije i tko će biti najveći gubitnik ako je jedni budu regulirali, a drugi ne?

Fraza 'Amerikanci izume, Kinezi kopiraju, Europljani reguliraju', kao i svaki stereotip, donekle ima uporište u istini. Ipak, u području umjetne inteligencije stvari se polako mijenjaju (barem na vertikali Amerika - Kina). Kinezi sada imaju više konja za utrku, Amerikanci su se počeli nervozno meškoljiti na vrhu tech piramide, a Europljani i dalje rade ono što im najbolje ide – reguliraju. No, kako se čini, ovaj put regulaciju podržava i tržište, pa bi EU možda najavljenim Aktom o umjetnoj inteligenciji, barem u teoriji, mogao biti na tragu nečega što će zaštititi i društvo i tržište, tj. spasiti što se spasiti da.

Čak i tehnokrat Elon Musk je, na iznenađenje mnogih, prošli tjedan potpisao otvoreno pismo s 3000 drugih znanstvenika, velikih biznismena i ljudi iz struke u kojem pozivaju da se na šest mjeseci obustavi razvoj Chat GPT-ja (jer bi nas mogao dočekati nespremne i postati konkurencija, a ne pomoć čovjeku). Iako je umjetna inteligencija u primjeni već godinama, tek pojavom Chat GPT-ja šira javnost je osvijestila koliko smo blizu ogromnom tehnološkom, a samim tim i civilizacijskom zaokretu.

  • +2
Umjetna inteligencija - Chat GPT Izvor: Profimedia / Autor: mundissima / Alamy / Alamy / Profimedia

Umjetna inteligencija razvija se nevjerojatnom brzinom, a algoritmi prikopčani na podatkovnu infuziju već sada mogu puno više nego što bi neki htjeli. Sama tehnologija ne može se svrastati u kategorije dobra i zla, ali u rukama pogrešnih ljudi poprima njihovu narav. Nakon što je Europska komisija predložila zakon koji bi regulirao AI, svoje stajalište iznijelo je i Vijeće, a sada je na redu Europski parlament, u kojem se posljednjih mjeseci naveliko raspravljalo i pregovaralo sa svim akterima iz ove branše. Sada Akt o umjetnoj inteligenciji ulazi u zadnju fazu i može se očekivati već krajem ove godine.

Prvotnom prijedlogu EK mnogi su zamjerali to što nije obuhvatio umjetnu inteligenciju opće namjene, tzv. temeljne modele, u što spadaju jezični modeli poput Chat GPT-ja, no kad je Komisija iznijela svoj prijedlog, ovog jezičnog modela nije bilo ni na vidiku.

Piramida rizika

Suizvjestitelj za Akt o umjetnoj inteligenciji pri Europskom parlamentu Dragos Tudorache tijekom posjeta hrvatskih novinara EP-u rekao nam je da im je upravo regulacija takvih sustava bila jedan od najvećih izazova, pa je i rješenje nešto drukčije nego za ostale sustave umjetne inteligencije.

Cijeli akt sastavljen je po principu piramide rizika određenih vrsta primjene umjetne inteligencije. S obzirom na to da je AI motor digitalne transformacije naše civilizacije, a samim tim i generator ekonomskog uspjeha, EU je morao biti oprezniji nego s GDPR-om (kojim je zakinuo dio tržišta) te ovaj put stvoriti pravni okvir koji bi i dalje ostavio otvoren put inovacijama i razvoju novih tehnologija, a istovremeno ograničio njihov potencijal da nanesu možda i nepovratnu štetu čovječanstvu.

Stoga je naglasak stavljen na ograničavanje primjene. Piramida se sastoji od četiri razine rizika, na vrhu s onom neprihvatljivom za europsko tržište, što podrazumijeva zabranu, a tu su i razine visokog, ograničenog i minimalnog rizika. Zasad je, kaže Tudorache, zabranjena primjena umjetne inteligencije u pet područja. Odnosi se to na social scoring (društveno bodovanje), kakvo se već koristi u Kini, pri čemu umjetna inteligencija nadgleda vaše ponašanje i online i offline, na osnovi čega dobivate ocjenu o kojoj ovisi i vaša interakcija s državom, ali i s cijelom okolinom.

Vaša ocjena određuje hoćete li imati pristup socijalnim uslugama, možete li dobiti kredit, po kojoj kamatnoj stopi i slično. EU je ocijenio da takva praksa na našem tlu ne dolazi u obzir, kao i subliminalne manipulacije, real-life biometrijska identifikacija u otvorenim prostorima, algoritmi za emocionalno prepoznavanje i oni koji predviđaju kriminalno ponašanje.

Odljev u Kinu

'Naš interes je da zaštitimo ljude od primjene tehnologije tamo gdje je to opasno, ali i da dopustimo da se AI razvija jer ne želimo da sve inovacije odu u Kinu, što je nešto što se već sada događa', istaknuo je Tudorache. Kako kaže, najveći izazov bio je kreirati zakon koji će biti otporan na budućnost.

To su, nadaju se, postigli uvođenjem pravnih mehanizama koji će omogućiti jednostavnije i brže modifikacije popisa. To znači da kad u praksi otkrijete da nešto zapravo ne pripada popisu visokog rizika, lako će se moći prebaciti u kategoriju nižeg rizika. I obrnuto, ako se pojavi nešto novo za godinu dana što će potencijalno biti riskantno u određenoj primjeni, to će se moći ubaciti na popis.

Aplikacije koje će biti u kategoriji visokog rizika neće biti zabranjene, ali zbog potencijalno štetnog učinka na demokraciju morat će zadovoljiti određene uvjete da bi se mogle nastaviti koristiti. Ovdje će biti naglasak na transparentnosti o tome koje skupove podataka ti algoritmi koriste, jesu li podaci pristrani ili sadržavaju informacije koje im nalažu da rade nešto loše.

Suizvjestitelj ističe da će se na ovaj način osigurati da ljudi koriste te aplikacije bez straha, čime će se generalno održati povjerenje u nove tehnologije, što je ujedno garancija tržištu.

'Tijekom ovog procesa razgovarao sam s tisućama ljudi s tržišta, od predstavnika Starbucksa do Big Techa, i ovaj put je drugačije nego s GDPR-om. Ljudi mi sami kažu: 'Regulirajte to.' Mnogi programeri sustava poput ChatGPT-ja kažu: 'Odgovorna smo kompanija i razumijemo to da naš stroj može postati loš.' To su ljudi svjesni toga da ograničenja treba postaviti jer postoje konkurenti na tržištu kojima je prioritet prije svega profit', kaže Tudorache. Dakle oni akteri na tržištu koji podržavaju regulaciju svjesni su da će, kad stvari pođu po zlu, ljudi prestati vjerovati tehnologiji, pa će svi biti na gubitku.

U Europskom parlamentu još uvijek se lome koplja oko toga u koju kategoriju će staviti ChatGPT. Pokušavaju usustaviti specijalni režim za AI opće prakse, prema kojem će za ove tehnologije vrijediti pravila iz različitih kategorija rizika koje će morati poštovati svi programeri žele li staviti tu tehnologiju na tržište.

Što s vojskom?

Što se pak tiče kategorije visokog rizika, u nju će se smjestiti primjena AI-ja u bankarstvu, glasanju, ali i u zapošljavanju, jer ga sve veće korporacije već koriste za tu svrhu. Dosad se pokazalo da je umjetna inteligencija pri odabiru kandidata za posao pristrana, što znači da se mora osigurati da podaci koji budu ubačeni u algoritam budu lišeni tih, za današnje društvene standarde, neprihvatljivih obrazaca. Kazne za one koji se ne budu pridržavali propisa bit će izrazito visoke, kao što je slučaj s Digital Service Actom (DSA), koji bi trebao regulirati društvene mreže.

Na geopolitičkoj mapi postoji nekoliko tabora s različitim pristupom tehnologiji. U onome koji predvodi Europa nalaze se i Japan, Južna Koreja, Kanada, Indija, Australija, a u novije vrijeme i Brazil. Kina pak umjetnu inteligenciju u posljednjem desetljeću koristi puno slobodnije, ali u autoritarne svrhe. Riječ je o dva dijametralno suprotna pristupa. SAD pak i dalje ostaje vjeran svom liberalnom pristupu – kune se samo u smjernice, pa bi se tržište trebalo regulirati samo po sebi.

Najvažnije i najskliskije područje primjene umjetne inteligencije ovim aktom ipak nije obuhvaćeno. Regulacija primjene umjetne inteligencije u vojsci funkcionirala bi kad bi se na nju obvezale sve strane, a kako stvari trenutačno stoje, nekoliko aktera na geopolitičkoj sceni neće tako lako regulirati svoje strojeve.