U Hrvatskoj se uvodi novo kazneno djelo zbog dovođenja u opasnost života i imovine sustavom umjetne inteligencije. Zasad je, čini se, puno više pitanja nego odgovora. Za počinitelje su predviđene zatvorske kazne do 15 godina, no pravni stručnjaci upozoravaju da bi nejasne definicije i nedostatak stručnjaka mogli dovesti do pravne nesigurnosti i problema u primjeni ovog zakona
Hrvatska se sprema u Kazneni zakon uvesti novo kazneno djelo – dovođenje u opasnost života i imovine sustavom umjetne inteligencije, poput automatiziranih vozila (robotaksija) i drugih sustava koji mogu ugroziti ljude i imovinu.
Prema prijedlogu zakona, kaznom od šest mjeseci do pet godina zatvora može biti kažnjen onaj tko izazove opasnost za živote i imovinu većeg opsega tijekom razvoja, testiranja, provjere, nadzora, upravljanja, uporabe sustava umjetne inteligencije ili na drugi način sustavom umjetne inteligencije.
Onaj tko to učini nehajno, mogao bi se naći iza rešetaka na do tri godine.
Obratili smo se nadležnom ministarstvu zbog pitanja i nedoumica
Dođe li korištenjem umjetne inteligencije do ozljeđivanja ili štete velikih razmjera, moguće su kazne u rasponu od jedne do 10 godina zatvora. U slučaju smrtnog ishoda, raspon moguće kazne je od tri do 15 godina zatvora, a nešto blaže kazne predviđene su za počinjenje iz nehaja.
Ministarstvo pravosuđa, uprave i digitalne transformacije preuzelo je definiciju umjetne inteligencije iz europske uredbe kojom je ona regulirana, a bit će i u skladu sa Zakonom o umjetnoj inteligenciji. Tportal je poslao upit Ministarstvu, u kojem smo zatražili pojašnjenja i odgovore na nedoumice vezane uz primjenu novih odredbi Kaznenog zakona. Odgovor nije stigao do trenutka pripreme ovog članka za objavu.
Problemi počinju s definicijom
Odvjetnik Marko Markić uvjeren je da će predloženo zakonsko rješenje izazvati velike probleme u primjeni u Hrvatskoj.
Problem očekuje prvenstveno u smislu same definicije sustava umjetne inteligencije koja glasi:
'Sustav umjetne inteligencije je strojni sustav različitih razina samostalnosti koji može pokazati prilagodljivost te koji za izričito ili neizričito izražene ciljeve iz ulaznih vrijednosti koje je primio zaključuje kako stvoriti izlazne vrijednosti kao što su predviđanja, sadržaj, preporuke ili odluke koje mogu utjecati ili utječu na stvarna ili prividna okruženja.'
'Kada tako širok, apstraktan i nedorečen opis za čovječanstvo novog i presedanskog tehnološkog dosega dovedemo u svezu sa samim djelom, koje opet kao počinitelja obuhvaća svaku osobu (tko) koja razvija, testira, provjerava, nadzire, upravlja, rabi ili na drugi način (dakle, kako god), doći ćemo u situaciju da se neće moći identificirati upravo ona osoba koja je svojom radnjom (ili propuštanjem) dovela do posljedice koja je predmet kaznenog progona', istaknuo je Markić.
Kao primjer je naveo slučaj prometne nesreće u kojoj sudjeluje robotaksi proizveden u Kini, u čijem je razvoju i testiranju sudjelovalo moguće i tisuće programera (razvijaju, testiraju i provjeravaju), a potom je prodan – recimo –mađarskom društvu s 25 zaposlenih (nadzire, upravlja) koje pruža usluge na području Republike Hrvatske, s češkim državljaninom kao putnikom (rabi).
'Doći do odgovora tko je zaista odgovorna osoba, pa makar i za nehajno postupanje, vrlo je teška zadaća za tijela progona, posebice imajući u vidu to da već postoje kaznena djela koja reguliraju zaštićeno dobro (izazivanje prometne nesreće u cestovnom prometu i dovođenje u opasnost života i tijela općeopasnom radnjom ili sredstvom)', upozorio je Markić.
Za odgovore na ta pitanja bit će prvenstveno potrebna vještačenja osoba sa stručnim kvalifikacijama, kojih prema Markićevoj procjeni u sustavu (za sada) nema, niti će ih biti u dovoljnom broju.
'Imajući u vidu – usuđujem se reći, opravdanu – percepciju javnosti o neučinkovitosti hrvatskog pravosudnog sustava i u slučajevima dobro nam poznatim i daleko jednostavnijim pojavnostima kaznenih djela, koja svoj epilog čekaju godinama, pa i desetljećima, držim da ovakvo zakonsko rješenje neće polučiti željeni učinak, osim što se naš zakonodavac može pohvaliti time da se ide u korak s vremenom', zaključio je Markić.
Gdje je tu Zakon o umjetnoj inteligenciji?
Andrea Čović Vidović, zamjenica voditeljice Predstavništva Europske komisije u Hrvatskoj, podsjeća da je Europska unija prva na svijetu donijela sveobuhvatni zakon kojim se regulira primjena umjetne inteligencije i koji je razvrstava prema razinama rizika.
Prema njegovim odredbama, većina umjetne inteligencije koja je u upotrebi u Europi svrstana je u sustave minimalnog rizika, poput onih u igrama ili filtrima za fotografije, pa nije regulirana. Njihovo korištenje ne predstavlja ugrozu za građane ili društvo.
Kod umjetne inteligencije ograničenog rizika europski zakon obvezuje na transparentnost da se korisnike ne bi dovelo u zabludu.
Tako, primjerice, građani moraju znati da razgovaraju s umjetnom inteligencijom pri kontaktu s robotima za brbljanje, a umjetno stvoreni foto, audio ili videomaterijali koji izgledaju stvarno, ali to nisu, poput tzv. deepfake snimki, moraju biti jasno označeni.
Od ove veljače sustavi neprihvatljive razine rizika strogo su zabranjeni na tržištu Unije. To su, naprimjer, sustavi koje se koristi za socijalno bodovanje, masovni biometrijski nadzor u stvarnom vremenu ili manipulaciju ponašanjem ljudi.
Regulativa u najvećoj mjeri pokriva visokorizične sustave, naprimjer u zdravstvu, prometu, obrazovanju, zapošljavanju ili kritičnoj infrastrukturi. Pravila za njihovu tržišnu upotrebu počinju vrijediti od srpnja 2026., uz obvezu procjene usklađenosti, sigurnosne standarde, nadzor ljudi i registraciju u europskoj bazi.
Hoće li sve biti pauzirano?
Primjena zakona u državama članicama Unije trebala bi biti provedena u fazama. Potpuna provedba predviđena je do srpnja 2027. No i to bi moglo doći u pitanje. Naime raste pritisak unutar Unije da se primjenu zakona, ili barem njegovog većeg dijela, odgodi. Češka, Poljska i Švedska su među državama koje to traže.
Europska komisija je navodno 8. listopada planirala predstaviti nacrt plana za poticanje usvajanja umjetne inteligencije, no objavila je da tijela za standardizaciju 'nisu ispunila rok za isporuku traženih standarda'.
Vodeći zastupnici Europskog parlamenta zaduženi za umjetnu inteligenciju sazvali su sastanak za 15. listopada kako bi raspravljali o naporima za pojednostavljenje tehnoloških pravila Unije i kako bi se to odrazilo na Zakon o umjetnoj inteligenciji.
Razlike između europske regulative i hrvatskog prijedloga izmjena Kaznenog zakona
AI Act (EU) je preventivna i regulatorna mjera koja propisuje pravila za razvoj, stavljanje na tržište i upotrebu AI sustava prema razinama rizika (minimalni, ograničeni, visoki, neprihvatljivi). Fokus je na standardima, certifikaciji i nadzoru prije nego što dođu do građana.
Hrvatski prijedlog je kaznena mjera i odnosi se na posljedice korištenja AI-a. Ako sustav dovede do opasnosti za život ili imovinu, počinitelju prijeti kazna zatvora.
AI Act - odgovornost snose primarno proizvođači, dobavljači i korisnici sustava; obvezni su osigurati usklađenost sa standardima EU-a (npr. testiranje, ljudski nadzor, transparentnost).
Hrvatski prijedlog - 'tko god' razvija, testira, nadzire, rabi ili na bilo koji način koristi AI. To je vrlo široko definirano, pa se otvara pitanje tko će u praksi odgovarati (programer, operater usluge, vlasnik, korisnik?).
AI Act i kažnjavanje - ako tvrtka ne uskladi sustav s pravilima, slijede visoke novčane kazne (do 35 milijuna eura ili sedam posto globalnog prometa).
Hrvatski prijedlog predviđa zatvorske kazne od šest mjeseci do 15 godina, ovisno o posljedicama (opasnost, ozljeda, smrt).
AI Act stupa na snagu u fazama (do srpnja 2027.), ali države članice već pripremaju mehanizme nadzora.
Hrvatski prijedlog - slijedi brzo uvođenje u Kazneni zakon, ali bez razrađenih mehanizama provedbe (stručnjaci, vještačenja, sudska praksa).