I. Uvod

1. Razvoj UI-ja posljednjih desetljeća snažno je promijenio gotovo sva područja ljudskog života, od gospodarstva i medicine do komunikacije i prometa. Pojava sustava sposobnih za samostalno učenje, donošenje odluka i prilagodbu okolini stvorila je brojne mogućnosti za unapređenje kvalitete života, ali i nove izazove s kojima se tradicionalni pravni sustavi, a osobito kazneno pravo, još uvijek suočavaju. Kazneno pravo, kao grana prava koja se bavi najozbiljnijim povredama zaštićenih dobara, mora istodobno štititi temeljne vrijednosti društva i zajednički život ljudi1 u društvu, ali istodobno i osigurati da tehnološki napredak ne bude sputan pretjeranom represijom.2 Upravo zato nužno je stalno pratiti razvoj tehnologije i prilagođavati kaznenopravne norme novim okolnostima.

2. UI danas prožima brojne sektore, a njegova zloupotreba ili pogrešno korištenje može dovesti do nastanka novih vrsta kaznenih djela ili do izmjene tradicionalnih oblika kriminaliteta. Posebno je važno razlikovati situacije u kojima UI sam djeluje kao autonomni sustav i one u kojima je sredstvo u rukama čovjeka.3 U prvom slučaju kaznenopravni izazovi odnose se na pitanje odgovornosti kada štetne posljedice nastupe bez izravne ljudske radnje4, dok je u drugom slučaju riječ o zloupotrebi tehnologije od strane fizičkih ili pravnih osoba.5 U oba scenarija ključno je pitanje kako osigurati djelotvornu zaštitu najviših osobnih i kolektivnih dobara uz istodobno poštovanje temeljnih načela kaznenog prava poput zakonitosti, krivnje i zabrane analogije na štetu počinitelja.

3. Prvi dio rada usmjeren je na razmatranje kaznenopravnih rizika povezanih s umjetnom inteligencijom u različitim područjima, s naglaskom na zlonamjernu ili nehajnu zloupotrebu ovih tehnologija. Posebna pozornost posvetit će se onim područjima u kojima je prodor UI-ja trenutačno najizraženiji i gdje posljedice kaznenih djela mogu biti najteže. U drugom dijelu rada detaljnije će se razmotriti prijedlog novog hrvatskog kaznenopravnog okvira koji bi trebao odgovoriti na identificirane izazove. Na taj način stvara se poveznica između teorijskog pregleda rizika i predloženih zakonskih rješenja. Važno je napomenuti kako je, u trenutku pisanja ovog rada, prijedlog novog kaznenog djela još uvijek u fazi javne rasprave pa je stoga moguće da konačni tekst zakona ima i ponešto drukčiji oblik od onoga koji se prikazuje u nastavku teksta.

II. Pregled kaznenopravnih rizika povezanih s namjernom ili nehajnom (zlo)uporabom sustava zasnovanih na samostalnoj umjetnoj inteligenciji

4. U suvremenom društvu umjetna inteligencija najviše prodire u promet i automobilsku industriju, medicinu, vojni sektor, financije te u područje kibernetičke sigurnosti i internetske komunikacije.6 Svako od tih područja sa sobom nosi specifične oblike kaznenopravnih rizika. Kada je riječ o kaznenim djelima protiv života, tijela i spolne slobode, većina se autora slaže da UI u pravilu nije izvor opasnosti sam po sebi, već se pojavljuje kao sredstvo kojim se zlonamjerne osobe koriste za ostvarenje nezakonitih ciljeva.7 Primjerice, sustavi temeljeni na UI-ju mogu biti iskorišteni za složene oblike uznemiravanja i uhođenja putem interneta, uključujući stvaranje sintetskih videozapisa koji kompromitiraju žrtvu i zadiru u njezina temeljna prava.8 Takvi postupci zahtijevaju prilagodbu postojećih kaznenopravnih odredaba kako bi se osigurala primjerena zaštita osobnih dobara u digitalnom okružju.

5. Promet je jedno od najistaknutijih područja u kojima se pojavljuju novi kaznenopravni izazovi. Autonomna vozila, koja se sve češće testiraju na javnim prometnicama, donose obećanje smanjenja ljudskih pogrešaka i broja prometnih nesreća, ali i pitanje tko će snositi odgovornost kada takvo vozilo prouzroči teške posljedice.9 U poznatom događaju iz Sjedinjenih Američkih Država samovozeći automobil nije prepoznao pješaka i usmrtio ga je, a jedina osoba koja je kazneno odgovarala bila je testna vozačica, dok proizvođač vozila i korporacija nisu bili sankcionirani.10 Takvi primjeri otvaraju složena pitanja uzročnosti i krivnje, osobito u sustavima u kojima ne postoji kaznena odgovornost pravnih osoba te upućuju na moguće pravne praznine koje će zahtijevati zakonodavne intervencije.

6. U vojnom sektoru problem postaje još složeniji. Razvoj potpuno autonomnih sustava naoružanja, koji nakon aktivacije samostalno biraju, napadaju i uništavaju mete, dovodi u pitanje tradicionalni koncept zapovjedne odgovornosti. Kada zapovjednik poduzme sve mjere nadzora i održavanja, a sustav ipak izazove masovne civilne žrtve, teško je naći osnovu za njegovu kaznenu odgovornost.11 Povijesni incidenti s poluautonomnim sustavima, u kojima je došlo do tragičnih pogrešaka bez posljedica za zapovjednu strukturu, pokazuju koliko je važno uspostaviti jasan međunarodni okvir prije nego što se ovakva tehnologija masovno uvede u ratovanje.12

7. Medicina je područje u kojem su koristi od UI-ja iznimno velike, ali rizici nisu zanemarivi. Sustavi za dijagnostiku i robotski kirurzi mogu povećati preciznost i učinkovitost liječenja, no istodobno se otvara pitanje odgovornosti za pogreške.13 Ako, primjerice, algoritam pogrešno protumači nalaze i dovede do pogrešne dijagnoze, tradicionalni koncept odgovornosti temeljen na povredi pravila struke i krivnji može se pokazati nedostatnim. Posebno je sporno hoće li u budućnosti biti potrebno razviti nove postupke vještačenja koji bi se bavili analizom rada umjetne inteligencije kako bi se utvrdilo je li do pogreške došlo zbog programskih nedostataka, ljudskog propusta ili kombinacije obaju faktora. Postojeći sustavi u medicini još uvijek ne rade na dovoljnom stupnju samostalnosti da bi isključili odgovornost čovjeka14 u pozadini, ali nije nerealno da će se u bližoj budućnosti pojaviti upravo takvi sustavi, pa će time ova problematika dobiti na praktičnoj važnosti.

8. Financijski se sektor sve više koristi autonomnim algoritmima za trgovinu i upravljanje rizicima. Iako ti sustavi mogu donijeti znatnu dobit, oni također mogu prouzročiti ozbiljne poremećaje na tržištu.15 Poznati su slučajevi u kojima je algoritam različitih trgovačkih društava u SAD-u izvršio niz neplaniranih transakcija, a to je dovelo do gubitaka stotine milijuna dolara i na kraju do stečaja velikih trgovačkih subjekata.16 U takvim situacijama tradicionalni kaznenopravni koncepti, koji se oslanjaju na dokazivanje prijevarne namjere, mogu biti nedostatni jer se algoritmi ne ponašaju prema ljudskim standardima razmišljanja i odlučivanja. Stoga se treba razmatrati tko bi trebao snositi odgovornost – programer, korisnik, pravna osoba ili neka kombinacija svih njih.

9. Zaštita privatnosti i osobnih podataka jedno je od područja visokog rizika. Sustavi za automatsko prepoznavanje lica i analizu biometrijskih podataka, iako korisni u borbi protiv kriminaliteta, mogu se zloupotrijebiti za masovni nadzor i diskriminatorne prakse. Postoji stvarna opasnost da algoritmi, zbog načina na koji su dizajnirani, reproduciraju i pojačavaju postojeće društvene predrasude, a to može rezultirati nezakonitim uhićenjima ili ograničavanjem sloboda pojedinaca. U nekim slučajevima sustavi su pogrešno identificirali osobe, što je dovelo do ozbiljnih posljedica za njihova prava, a odgovornost za takve pogreške nije bila jasno utvrđena.17 Ti primjeri pokazuju koliko je važno uspostaviti transparentne i pravedne mehanizme nadzora nad korištenjem ovakvih tehnologija.

10. Iz prikazanog je moguće zaključiti da UI donosi goleme mogućnosti za napredak društva, ali i izazove koji mogu imati duboke posljedice na sustav kaznenog prava. Pregledani primjeri pokazuju da se rizici pojavljuju u različitim sektorima – od prometa i medicine do vojne industrije i financijskog sektora – te da nijedno područje nije u potpunosti imuno na zloupotrebe. Posebno zabrinjavaju situacije u kojima autonomni sustavi djeluju bez izravnog ljudskog nadzora jer tada tradicionalni koncepti krivnje i uzročnosti gube na jasnoći, a postojeće kaznene norme ne pružaju dovoljne alate za odgovor na takve situacije.

11. Za osiguranje djelotvorne zaštite temeljnih ljudskih prava i sloboda potrebno je pravodobno prepoznati nove oblike kaznenih prijetnji i prilagoditi zakonodavni okvir. To uključuje ne samo izmjene kaznenih normi nego i razvoj novih metodologija vještačenja, nadzornih mehanizama i međunarodnih standarda. Hrvatski kaznenopravni sustav, kao dio europskog pravnog prostora, suočit će se s istim izazovima kao i ostale zemlje pa je nužno već sada započeti raspravu o tome kako odgovorno upravljati razvojem umjetne inteligencije.

12. Drugi će dio rada stoga biti posvećen prijedlogu novog hrvatskog kaznenopravnog okvira koji bi trebao obuhvatiti uočene rizike i ponuditi konkretna rješenja. Samo uravnotežen pristup, koji će ujediniti zaštitu temeljnih dobara s poticanjem inovacija, može osigurati da umjetna inteligencija služi ljudskom napretku, a ne postane izvor nesigurnosti i pravne neizvjesnosti.

III. Novo kazneno djelo iz članka 215.a

13. Na 115. sjednici Vlade Republike Hrvatske 11. rujna 2025. razmatran je Nacrt prijedloga zakona o izmjenama i dopunama Kaznenog zakona (EU) (OECD) (dalje: Nacrt).18 U članku 8. Nacrta predloženo je uvođenje novog kaznenog djela Dovođenje u opasnost života i imovine sustavom umjetne inteligencije koje glasi:

„Članak 215.a

(1) Tko u razvoju, testiranju, provjeri, nadzoru, upravljanju, uporabi sustava umjetne inteligencije ili na drugi način sustavom umjetne inteligencije izazove opasnost za život ili tijelo ljudi ili za imovinu većeg opsega, a time nije počinjeno teže kazneno djelo, kaznit će se kaznom zatvora od šest mjeseci do pet godina.

(2) Tko kazneno djelo iz stavka 1. ovoga članka počini iz nehaja, kaznit će se kaznom zatvora do tri godine.

(3) Ako je kaznenim djelom iz stavka 1. ovoga članka prouzročena teška tjelesna ozljeda neke osobe ili imovinska šteta velikih razmjera, počinitelj će se kazniti kaznom zatvora od jedne do deset godina.

(4) Ako je kaznenim djelom iz stavka 1. ovoga članka prouzročena smrt jedne ili više osoba, počinitelj će se kazniti kaznom zatvora od tri do petnaest godina.

(5) Ako je kaznenim djelom iz stavka 2. ovoga članka prouzročena teška tjelesna ozljeda neke osobe ili imovinska šteta velikih razmjera, počinitelj će se kazniti kaznom zatvora od šest mjeseci do pet godina.

(6) Ako je kaznenim djelom iz stavka 2. ovoga članka prouzročena smrt jedne ili više osoba, počinitelj će se kazniti kaznom zatvora od jedne do osam godina.”.

14. Razlog za uvođenje novog kaznenog djela različiti su oblici ugrožavanja života ljudi i imovine koji se mogu pojaviti u vezi sa sustavom UI-ja. To se posebno odnosi na automatizirana vozila i to kada su prometne nesreće prouzročila potpuno neovisna robotska vozila, dakle ona u kojima na mjestu vozača nije sjedio čovjek.19 Takvu situaciju ne pokriva postojeće kazneno djelo „Izazivanje prometne nesreće u cestovnom prometu” iz članka 227. Kaznenog zakona20 s obzirom na definiciju sudionika u cestovnom prometu iz članka 2. stavka 66. Zakona o sigurnosti prometa na cestama prema kojoj je sudionik u prometu „osoba koja na bilo koji način sudjeluje u prometu na cestama”.21Budući da je ta definicija odlučna i za primjenu kaznenopravnih odredaba jer je počinitelj kaznenog djela iz članka 227. KZ/11. „sudionik u cestovnom prometu”, a sustav umjetne inteligencije očito nije „osoba”, to je jasna potreba kaznenopravne zaštite života ljudi i imovine koju izravno ne ugrožava osoba, nego stroj kojim upravlja programska podrška (software).22

15. S obzirom na uvođenje novog kaznenog djela, Nacrt predlaže i definiciju UIja koja je usklađena s aktima EU-a.23 U članku 87. KZ/11. predložen je novi stavak 33.:

„(33) Sustav umjetne inteligencije je strojni sustav različitih razina samostalnosti koji može pokazati prilagodljivost te koji za izričito ili neizričito izražene ciljeve iz ulaznih vrijednosti koje je primio zaključuje kako stvoriti izlazne vrijednosti kao što su predviđanja, sadržaj, preporuke ili odluke koje mogu utjecati ili utječu na stvarna ili prividna okruženja.”.

16. Za novo se kazneno djelo predlaže smještanje u Glavu XXI. KZ/11. – Kaznena djela protiv opće sigurnosti. Zaštitni objekti kaznenih djela propisanih u toj glavi KZ/11. su život ljudi i imovine koji mogu biti posebno ugroženi općeopasnim činjenjem i nečinjenjem. Odmah je uočljivo da je novo kazneno djelo predloženo po uzoru na postojeće kazneno djelo iz članka 215. KZ/11.„Dovođenje u opasnost života i imovine općeopasnom radnjom ili sredstvom”. U tom smislu dosadašnja tumačenja zakonskih izričaja mogu biti važna i za novo kazneno djelo.

17. S tim u vezi, novo je kazneno djelo općeopasno djelo, a radnja počinjenja je općeopasna radnja. Posljedica je konkretna i stvarna opasnost za život ili tijelo ljudi ili imovine većeg opsega. Traži se, dakle, mogućnost nastupanja povređivanja života ili tijela ili imovine većeg opsega. Djelo može biti počinjeno namjerom i nehajem, a temeljni oblici su u stavku 1. (namjera) i u stavku 2. (nehaj). Ostali stavci predviđaju kvalificirane oblike, ovisno o obliku krivnje i prouzročenoj posljedici. Tu je riječ o odgovornosti za težu posljedicu pa mora postojati uzročna veza između radnje počinjenja (činjenja ili nečinjenja) i posljedice koja mogu biti obuhvaćena krivnjom počinitelja. Moguće su kombinacije namjera (u odnosu na radnju) + nehaj (u odnosu na posljedicu); stavci 3. i 4. te nehaj (u odnosu na radnju) + nehaj (u odnosu na posljedicu); stavci 5. i 6.

18. Novo djelo predviđa više mogućih načina počinjenja koji vode računa o posebnostima UI-ja. Način počinjenja može biti činjenjem ili nečinjenjem (propustom). Različiti oblici počinjenja postoje jer je najčešće od početne ideje UI-ja do njegove konačne uporabe u svakodnevnom životu uključeno više činitelja, odnosno više ljudi ili više pravnih osoba koji mogu na razne načine ili svaki u pojedinom dijelu sudjelovati pri stvaranju i konačnoj primjeni UI-ja.

18.1. „Razvoj” sustava UI-ja obuhvaća postupak od ideje do ostvarenja sustava, osmišljavanjem i usustavljivanjem algoritama i ostalih sastavnica pri izradi programske podrške (softwarea).

18.2. „Testiranje” obuhvaća isprobavanje kakvoće prije uporabe.

18.3. „Provjera” je također isprobavanje kakvoće, ali ona može uslijediti i nakon testiranja te uključivati praćenje i pregled UI-ja.

18.4. „Nadzor” je pomno praćenje ili pregled UI-ja i može ga obavljati (pravna) osoba različita od one koja obavlja testiranje ili provjeru.

18.5. „Upravljanje” je vođenje nečega što koristi UI ili rukovanje vozilom ili drugim uređajem (strojem) koji koristi UI.

18.6. „Uporaba” znači korištenje UI-ja u određene svrhe.

18.7. „Na drugi način” obuhvaća neki od načina koji nije prethodno naveden, a postoji jer se žele izbjeći pravne praznine koje bi se mogle pojaviti ako se neki od nabrojenih načina ne bi mogao podvesti pod konkretno činjenje ili nečinjenje.

19. Treba ponoviti da je od razvoja do uporabe sustava UI-ja najčešće uključeno više (pravnih) osoba koje su zadužene za pojedine dijelove programske podrške UI-ja. Osim toga, konačna primjena UI-ja ovisi i o strojnoj/računalnoj opremi (hardwareu) jer oprema ne radi bez programske podrške. O tome treba voditi računa pri utvrđivanju uzročne veze između radnje počinjenja i posljedice, osobito pri utvrđivanju koji je dio UI-ja ili opreme doveo do ostvarenja obilježja kaznenog djela.

20. Moguće je da se u odnosu na utvrđivanje kaznene odgovornosti pojave poteškoće pri utvrđivanju koja je sastavnica UI-ja zakazala, koji je dio programske podrške (koji algoritam ili podatak) doveo do ostvarenja obilježja djela, odnosno koja je fizička osoba bila zadužena za pojedini dio sustava UI-ja te je li riječ i o pogrešci u opremi ili samo u programu. Razumno je predvidjeti da će biti potrebna i složena vještačenja koja će uključivati razne stručnjake za programsku podršku i računalnu opremu.

20.1. U takvoj će situaciji možda biti od pomoći članak 5. stavak 2. Zakona o odgovornosti pravnih osoba za kaznena djela.24 Naime, prema toj odredbi pravna će se osoba kazniti za kazneno djelo odgovorne osobe i kada postoje pravne ili stvarne zapreke za utvrđivanje odgovornosti odgovorne osobe. Pravne su zapreke predviđene pravnom normom (npr. imunitet, amnestija), a stvarne su one činjenice ili okolnosti koje stvarno postoje (npr. smrt odgovorne osobe, nemogućnost utvrđivanja istovjetnosti odgovorne osobe u pravnoj osobi). Zato je moguće utvrditi kaznenu odgovornost pravne osobe i kada nije moguće utvrditi koja je od odgovornih osoba u pravnoj osobi neposredno ostvarila obilježja kaznenog djela, npr. zbog hijerarhijske ili organizacijske neodređenosti ili složenosti unutar pravne osobe, a izvjesno je da jedna od njih jest. Sudska praksa potvrđuje takvu mogućnost.25

IV. Zaključak

21. Razvoj i sve šira primjena umjetne inteligencije nesporno otvaraju brojne mogućnosti za društveni i gospodarski napredak, ali istodobno donose i znatne rizike koji zahtijevaju prilagodbu kaznenopravnog sustava. Pregled iznesen u ovom radu jasno pokazuje kako postojeći kaznenopravni okvir, oblikovan u vrijeme kada se tehnologija temeljila gotovo isključivo na ljudskom djelovanju, ne može u cijelosti odgovoriti na specifične izazove koje donosi autonomno djelovanje strojeva. Posebno je problematičan odnos uzročnosti i krivnje u situacijama u kojima sustavi umjetne inteligencije djeluju bez izravne ljudske radnje, čime tradicionalni koncepti kaznene odgovornosti postaju nedostatni.

22. Uvođenje novog kaznenog djela dovođenja u opasnost života i imovine sustavom umjetne inteligencije u hrvatsko zakonodavstvo stoga je logičan i nužan korak. Time se ne samo popunjava pravna praznina, nego i osigurava da kazneno pravo ostane djelotvoran instrument zaštite temeljnih dobara u suvremenom tehnološkom okružju. Predložena zakonska rješenja vode računa o specifičnostima sustava umjetne inteligencije, uključujući različite faze razvoja, testiranja, nadzora i uporabe te omogućuju sankcioniranje i namjernih i nehajnih postupanja.

23. Ipak, donošenje zakonskog teksta samo je početak. Ključno je da se uz kaznenopravne norme razviju i odgovarajući mehanizmi stručnog vještačenja, međunarodna suradnja te etički standardi kako bi se osiguralo da se umjetna inteligencija upotrebljava na način koji promiče ljudski napredak, a ne stvara nesigurnost i nepovjerenje. Pitanje kaznene odgovornosti pravnih osoba dodatno naglašava složenost budućih izazova jer se iza svakog sustava umjetne inteligencije krije mreža ljudskih i institucijskih odluka.

24. Zaključno, novo kazneno djelo treba promatrati ne samo kao normativni instrument nego i kao signal spremnosti zakonodavca da odgovori na izazove četvrte industrijske revolucije. Samo uravnotežen pristup, koji će kombinirati zaštitu temeljnih prava s poticanjem inovacija, može osigurati da Republika Hrvatska, u skladu s europskim i međunarodnim pravnim razvojem i suvremenim standardima, bude spremna suočiti se s budućnošću u kojoj će umjetna inteligencija zauzimati važan dio ljudske svakodnevice.