🇭🇷 Sadržaj (hrvatski)
Umjetna inteligencija (UI) jedna je od najznačajnijih tehnoloških inovacija suvremenog doba s mogućnošću da korjenito preoblikuje društvene odnose, gospodarstvo i svakodnevni život. Međutim, njezina primjena stvara i nove oblike rizika koji imaju izravne posljedice za kazneno pravo. U ovom radu u prvom se dijelu raščlanjuju ključna područja u kojima se pojavljuju kaznenopravni izazovi povezani sa zlonamjernom ili nehajnom zloupotrebom UI-ja, dok se u drugom dijelu razmatra prijedlog novog hrvatskog kaznenopravnog okvira. Rizici se javljaju u različitim područjima, pri čemu su posebno istaknuti promet, medicina, vojna industrija, financijski sustav te zaštita privatnosti i osobnih podataka. U području prometa autonomna vozila otvaraju pitanja uzročne veze i krivnje kada dođe do nesreće bez izravne ljudske radnje. U medicini sustavi za dijagnostiku i robotski kirurzi povećavaju učinkovitost liječenja, ali i složenost utvrđivanja odgovornosti za pogreške. Vojni sektor suočava se s etičkim i pravnim dilemama u vezi s potpuno autonomnim sustavima naoružanja. U financijama algoritamsko trgovanje može prouzročiti velike ekonomske štete, dok u području privatnosti postoji opasnost od masovnog nadzora i diskriminacije kroz sustave za automatsko prepoznavanje lica. Rad u prvom dijelu pruža teorijsku osnovu za razumijevanje ovih rizika i služi kao polazište za drugi dio u kojem se prikazuje i obrazlaže prijedlog novog kaznenog djela s ciljem uravnoteženja zaštite temeljnih prava i poticanja tehnoloških inovacija.
Ključne riječi:
I. Uvod
1. Razvoj UI-ja posljednjih desetljeća snažno je promijenio gotovo sva područja ljudskog života, od gospodarstva i medicine do komunikacije i prometa. Pojava sustava sposobnih za samostalno učenje, donošenje odluka i prilagodbu okolini stvorila je brojne mogućnosti za unapređenje kvalitete života, ali i nove izazove s kojima se tradicionalni pravni sustavi, a osobito kazneno pravo, još uvijek suočavaju. Kazneno pravo, kao grana prava koja se bavi najozbiljnijim povredama zaštićenih dobara, mora istodobno štititi temeljne vrijednosti društva i zajednički život ljudi1 u društvu, ali istodobno i osigurati da tehnološki napredak ne bude sputan pretjeranom represijom.2 Upravo zato nužno je stalno pratiti razvoj tehnologije i prilagođavati kaznenopravne norme novim okolnostima.
2. UI danas prožima brojne sektore, a njegova zloupotreba ili pogrešno korištenje može dovesti do nastanka novih vrsta kaznenih djela ili do izmjene tradicionalnih oblika kriminaliteta. Posebno je važno razlikovati situacije u kojima UI sam djeluje kao autonomni sustav i one u kojima je sredstvo u rukama čovjeka.3 U prvom slučaju kaznenopravni izazovi odnose se na pitanje odgovornosti kada štetne posljedice nastupe bez izravne ljudske radnje4, dok je u drugom slučaju riječ o zloupotrebi tehnologije od strane fizičkih ili pravnih osoba.5 U oba scenarija ključno je pitanje kako osigurati djelotvornu zaštitu najviših osobnih i kolektivnih dobara uz istodobno poštovanje temeljnih načela kaznenog prava poput zakonitosti, krivnje i zabrane analogije na štetu počinitelja.
3. Prvi dio rada usmjeren je na razmatranje kaznenopravnih rizika povezanih s umjetnom inteligencijom u različitim područjima, s naglaskom na zlonamjernu ili nehajnu zloupotrebu ovih tehnologija. Posebna pozornost posvetit će se onim područjima u kojima je prodor UI-ja trenutačno najizraženiji i gdje posljedice kaznenih djela mogu biti najteže. U drugom dijelu rada detaljnije će se razmotriti prijedlog novog hrvatskog kaznenopravnog okvira koji bi trebao odgovoriti na identificirane izazove. Na taj način stvara se poveznica između teorijskog pregleda rizika i predloženih zakonskih rješenja. Važno je napomenuti kako je, u trenutku pisanja ovog rada, prijedlog novog kaznenog djela još uvijek u fazi javne rasprave pa je stoga moguće da konačni tekst zakona ima i ponešto drukčiji oblik od onoga koji se prikazuje u nastavku teksta.
II. Pregled kaznenopravnih rizika povezanih s namjernom ili nehajnom (zlo)uporabom sustava zasnovanih na samostalnoj umjetnoj inteligenciji
4. U suvremenom društvu umjetna inteligencija najviše prodire u promet i automobilsku industriju, medicinu, vojni sektor, financije te u područje kibernetičke sigurnosti i internetske komunikacije.6 Svako od tih područja sa sobom nosi specifične oblike kaznenopravnih rizika. Kada je riječ o kaznenim djelima protiv života, tijela i spolne slobode, većina se autora slaže da UI u pravilu nije izvor opasnosti sam po sebi, već se pojavljuje kao sredstvo kojim se zlonamjerne osobe koriste za ostvarenje nezakonitih ciljeva.7 Primjerice, sustavi temeljeni na UI-ju mogu biti iskorišteni za složene oblike uznemiravanja i uhođenja putem interneta, uključujući stvaranje sintetskih videozapisa koji kompromitiraju žrtvu i zadiru u njezina temeljna prava.8 Takvi postupci zahtijevaju prilagodbu postojećih kaznenopravnih odredaba kako bi se osigurala primjerena zaštita osobnih dobara u digitalnom okružju.
5. Promet je jedno od najistaknutijih područja u kojima se pojavljuju novi kaznenopravni izazovi. Autonomna vozila, koja se sve češće testiraju na javnim prometnicama, donose obećanje smanjenja ljudskih pogrešaka i broja prometnih nesreća, ali i pitanje tko će snositi odgovornost kada takvo vozilo prouzroči teške posljedice.9 U poznatom događaju iz Sjedinjenih Američkih Država samovozeći automobil nije prepoznao pješaka i usmrtio ga je, a jedina osoba koja je kazneno odgovarala bila je testna vozačica, dok proizvođač vozila i korporacija nisu bili sankcionirani.10 Takvi primjeri otvaraju složena pitanja uzročnosti i krivnje, osobito u sustavima u kojima ne postoji kaznena odgovornost pravnih osoba te upućuju na moguće pravne praznine koje će zahtijevati zakonodavne intervencije.
6. U vojnom sektoru problem postaje još složeniji. Razvoj potpuno autonomnih sustava naoružanja, koji nakon aktivacije samostalno biraju, napadaju i uništavaju mete, dovodi u pitanje tradicionalni koncept zapovjedne odgovornosti. Kada zapovjednik poduzme sve mjere nadzora i održavanja, a sustav ipak izazove masovne civilne žrtve, teško je naći osnovu za njegovu kaznenu odgovornost.11 Povijesni incidenti s poluautonomnim sustavima, u kojima je došlo do tragičnih pogrešaka bez posljedica za zapovjednu strukturu, pokazuju koliko je važno uspostaviti jasan međunarodni okvir prije nego što se ovakva tehnologija masovno uvede u ratovanje.12
7. Medicina je područje u kojem su koristi od UI-ja iznimno velike, ali rizici nisu zanemarivi. Sustavi za dijagnostiku i robotski kirurzi mogu povećati preciznost i učinkovitost liječenja, no istodobno se otvara pitanje odgovornosti za pogreške.13 Ako, primjerice, algoritam pogrešno protumači nalaze i dovede do pogrešne dijagnoze, tradicionalni koncept odgovornosti temeljen na povredi pravila struke i krivnji može se pokazati nedostatnim. Posebno je sporno hoće li u budućnosti biti potrebno razviti nove postupke vještačenja koji bi se bavili analizom rada umjetne inteligencije kako bi se utvrdilo je li do pogreške došlo zbog programskih nedostataka, ljudskog propusta ili kombinacije obaju faktora. Postojeći sustavi u medicini još uvijek ne rade na dovoljnom stupnju samostalnosti da bi isključili odgovornost čovjeka14 u pozadini, ali nije nerealno da će se u bližoj budućnosti pojaviti upravo takvi sustavi, pa će time ova problematika dobiti na praktičnoj važnosti.
8. Financijski se sektor sve više koristi autonomnim algoritmima za trgovinu i upravljanje rizicima. Iako ti sustavi mogu donijeti znatnu dobit, oni također mogu prouzročiti ozbiljne poremećaje na tržištu.15 Poznati su slučajevi u kojima je algoritam različitih trgovačkih društava u SAD-u izvršio niz neplaniranih transakcija, a to je dovelo do gubitaka stotine milijuna dolara i na kraju do stečaja velikih trgovačkih subjekata.16 U takvim situacijama tradicionalni kaznenopravni koncepti, koji se oslanjaju na dokazivanje prijevarne namjere, mogu biti nedostatni jer se algoritmi ne ponašaju prema ljudskim standardima razmišljanja i odlučivanja. Stoga se treba razmatrati tko bi trebao snositi odgovornost – programer, korisnik, pravna osoba ili neka kombinacija svih njih.
9. Zaštita privatnosti i osobnih podataka jedno je od područja visokog rizika. Sustavi za automatsko prepoznavanje lica i analizu biometrijskih podataka, iako korisni u borbi protiv kriminaliteta, mogu se zloupotrijebiti za masovni nadzor i diskriminatorne prakse. Postoji stvarna opasnost da algoritmi, zbog načina na koji su dizajnirani, reproduciraju i pojačavaju postojeće društvene predrasude, a to može rezultirati nezakonitim uhićenjima ili ograničavanjem sloboda pojedinaca. U nekim slučajevima sustavi su pogrešno identificirali osobe, što je dovelo do ozbiljnih posljedica za njihova prava, a odgovornost za takve pogreške nije bila jasno utvrđena.17 Ti primjeri pokazuju koliko je važno uspostaviti transparentne i pravedne mehanizme nadzora nad korištenjem ovakvih tehnologija.
10. Iz prikazanog je moguće zaključiti da UI donosi goleme mogućnosti za napredak društva, ali i izazove koji mogu imati duboke posljedice na sustav kaznenog prava. Pregledani primjeri pokazuju da se rizici pojavljuju u različitim sektorima – od prometa i medicine do vojne industrije i financijskog sektora – te da nijedno područje nije u potpunosti imuno na zloupotrebe. Posebno zabrinjavaju situacije u kojima autonomni sustavi djeluju bez izravnog ljudskog nadzora jer tada tradicionalni koncepti krivnje i uzročnosti gube na jasnoći, a postojeće kaznene norme ne pružaju dovoljne alate za odgovor na takve situacije.
11. Za osiguranje djelotvorne zaštite temeljnih ljudskih prava i sloboda potrebno je pravodobno prepoznati nove oblike kaznenih prijetnji i prilagoditi zakonodavni okvir. To uključuje ne samo izmjene kaznenih normi nego i razvoj novih metodologija vještačenja, nadzornih mehanizama i međunarodnih standarda. Hrvatski kaznenopravni sustav, kao dio europskog pravnog prostora, suočit će se s istim izazovima kao i ostale zemlje pa je nužno već sada započeti raspravu o tome kako odgovorno upravljati razvojem umjetne inteligencije.
12. Drugi će dio rada stoga biti posvećen prijedlogu novog hrvatskog kaznenopravnog okvira koji bi trebao obuhvatiti uočene rizike i ponuditi konkretna rješenja. Samo uravnotežen pristup, koji će ujediniti zaštitu temeljnih dobara s poticanjem inovacija, može osigurati da umjetna inteligencija služi ljudskom napretku, a ne postane izvor nesigurnosti i pravne neizvjesnosti.
III. Novo kazneno djelo iz članka 215.a
13. Na 115. sjednici Vlade Republike Hrvatske 11. rujna 2025. razmatran je Nacrt prijedloga zakona o izmjenama i dopunama Kaznenog zakona (EU) (OECD) (dalje: Nacrt).18 U članku 8. Nacrta predloženo je uvođenje novog kaznenog djela Dovođenje u opasnost života i imovine sustavom umjetne inteligencije koje glasi:
„Članak 215.a
(1) Tko u razvoju, testiranju, provjeri, nadzoru, upravljanju, uporabi sustava umjetne inteligencije ili na drugi način sustavom umjetne inteligencije izazove opasnost za život ili tijelo ljudi ili za imovinu većeg opsega, a time nije počinjeno teže kazneno djelo, kaznit će se kaznom zatvora od šest mjeseci do pet godina.
(2) Tko kazneno djelo iz stavka 1. ovoga članka počini iz nehaja, kaznit će se kaznom zatvora do tri godine.
(3) Ako je kaznenim djelom iz stavka 1. ovoga članka prouzročena teška tjelesna ozljeda neke osobe ili imovinska šteta velikih razmjera, počinitelj će se kazniti kaznom zatvora od jedne do deset godina.
(4) Ako je kaznenim djelom iz stavka 1. ovoga članka prouzročena smrt jedne ili više osoba, počinitelj će se kazniti kaznom zatvora od tri do petnaest godina.
(5) Ako je kaznenim djelom iz stavka 2. ovoga članka prouzročena teška tjelesna ozljeda neke osobe ili imovinska šteta velikih razmjera, počinitelj će se kazniti kaznom zatvora od šest mjeseci do pet godina.
(6) Ako je kaznenim djelom iz stavka 2. ovoga članka prouzročena smrt jedne ili više osoba, počinitelj će se kazniti kaznom zatvora od jedne do osam godina.”.
14. Razlog za uvođenje novog kaznenog djela različiti su oblici ugrožavanja života ljudi i imovine koji se mogu pojaviti u vezi sa sustavom UI-ja. To se posebno odnosi na automatizirana vozila i to kada su prometne nesreće prouzročila potpuno neovisna robotska vozila, dakle ona u kojima na mjestu vozača nije sjedio čovjek.19 Takvu situaciju ne pokriva postojeće kazneno djelo „Izazivanje prometne nesreće u cestovnom prometu” iz članka 227. Kaznenog zakona20 s obzirom na definiciju sudionika u cestovnom prometu iz članka 2. stavka 66. Zakona o sigurnosti prometa na cestama prema kojoj je sudionik u prometu „osoba koja na bilo koji način sudjeluje u prometu na cestama”.21Budući da je ta definicija odlučna i za primjenu kaznenopravnih odredaba jer je počinitelj kaznenog djela iz članka 227. KZ/11. „sudionik u cestovnom prometu”, a sustav umjetne inteligencije očito nije „osoba”, to je jasna potreba kaznenopravne zaštite života ljudi i imovine koju izravno ne ugrožava osoba, nego stroj kojim upravlja programska podrška (software).22
15. S obzirom na uvođenje novog kaznenog djela, Nacrt predlaže i definiciju UIja koja je usklađena s aktima EU-a.23 U članku 87. KZ/11. predložen je novi stavak 33.:
„(33) Sustav umjetne inteligencije je strojni sustav različitih razina samostalnosti koji može pokazati prilagodljivost te koji za izričito ili neizričito izražene ciljeve iz ulaznih vrijednosti koje je primio zaključuje kako stvoriti izlazne vrijednosti kao što su predviđanja, sadržaj, preporuke ili odluke koje mogu utjecati ili utječu na stvarna ili prividna okruženja.”.
16. Za novo se kazneno djelo predlaže smještanje u Glavu XXI. KZ/11. – Kaznena djela protiv opće sigurnosti. Zaštitni objekti kaznenih djela propisanih u toj glavi KZ/11. su život ljudi i imovine koji mogu biti posebno ugroženi općeopasnim činjenjem i nečinjenjem. Odmah je uočljivo da je novo kazneno djelo predloženo po uzoru na postojeće kazneno djelo iz članka 215. KZ/11.„Dovođenje u opasnost života i imovine općeopasnom radnjom ili sredstvom”. U tom smislu dosadašnja tumačenja zakonskih izričaja mogu biti važna i za novo kazneno djelo.
17. S tim u vezi, novo je kazneno djelo općeopasno djelo, a radnja počinjenja je općeopasna radnja. Posljedica je konkretna i stvarna opasnost za život ili tijelo ljudi ili imovine većeg opsega. Traži se, dakle, mogućnost nastupanja povređivanja života ili tijela ili imovine većeg opsega. Djelo može biti počinjeno namjerom i nehajem, a temeljni oblici su u stavku 1. (namjera) i u stavku 2. (nehaj). Ostali stavci predviđaju kvalificirane oblike, ovisno o obliku krivnje i prouzročenoj posljedici. Tu je riječ o odgovornosti za težu posljedicu pa mora postojati uzročna veza između radnje počinjenja (činjenja ili nečinjenja) i posljedice koja mogu biti obuhvaćena krivnjom počinitelja. Moguće su kombinacije namjera (u odnosu na radnju) + nehaj (u odnosu na posljedicu); stavci 3. i 4. te nehaj (u odnosu na radnju) + nehaj (u odnosu na posljedicu); stavci 5. i 6.
18. Novo djelo predviđa više mogućih načina počinjenja koji vode računa o posebnostima UI-ja. Način počinjenja može biti činjenjem ili nečinjenjem (propustom). Različiti oblici počinjenja postoje jer je najčešće od početne ideje UI-ja do njegove konačne uporabe u svakodnevnom životu uključeno više činitelja, odnosno više ljudi ili više pravnih osoba koji mogu na razne načine ili svaki u pojedinom dijelu sudjelovati pri stvaranju i konačnoj primjeni UI-ja.
18.1. „Razvoj” sustava UI-ja obuhvaća postupak od ideje do ostvarenja sustava, osmišljavanjem i usustavljivanjem algoritama i ostalih sastavnica pri izradi programske podrške (softwarea).
18.2. „Testiranje” obuhvaća isprobavanje kakvoće prije uporabe.
18.3. „Provjera” je također isprobavanje kakvoće, ali ona može uslijediti i nakon testiranja te uključivati praćenje i pregled UI-ja.
18.4. „Nadzor” je pomno praćenje ili pregled UI-ja i može ga obavljati (pravna) osoba različita od one koja obavlja testiranje ili provjeru.
18.5. „Upravljanje” je vođenje nečega što koristi UI ili rukovanje vozilom ili drugim uređajem (strojem) koji koristi UI.
18.6. „Uporaba” znači korištenje UI-ja u određene svrhe.
18.7. „Na drugi način” obuhvaća neki od načina koji nije prethodno naveden, a postoji jer se žele izbjeći pravne praznine koje bi se mogle pojaviti ako se neki od nabrojenih načina ne bi mogao podvesti pod konkretno činjenje ili nečinjenje.
19. Treba ponoviti da je od razvoja do uporabe sustava UI-ja najčešće uključeno više (pravnih) osoba koje su zadužene za pojedine dijelove programske podrške UI-ja. Osim toga, konačna primjena UI-ja ovisi i o strojnoj/računalnoj opremi (hardwareu) jer oprema ne radi bez programske podrške. O tome treba voditi računa pri utvrđivanju uzročne veze između radnje počinjenja i posljedice, osobito pri utvrđivanju koji je dio UI-ja ili opreme doveo do ostvarenja obilježja kaznenog djela.
20. Moguće je da se u odnosu na utvrđivanje kaznene odgovornosti pojave poteškoće pri utvrđivanju koja je sastavnica UI-ja zakazala, koji je dio programske podrške (koji algoritam ili podatak) doveo do ostvarenja obilježja djela, odnosno koja je fizička osoba bila zadužena za pojedini dio sustava UI-ja te je li riječ i o pogrešci u opremi ili samo u programu. Razumno je predvidjeti da će biti potrebna i složena vještačenja koja će uključivati razne stručnjake za programsku podršku i računalnu opremu.
20.1. U takvoj će situaciji možda biti od pomoći članak 5. stavak 2. Zakona o odgovornosti pravnih osoba za kaznena djela.24 Naime, prema toj odredbi pravna će se osoba kazniti za kazneno djelo odgovorne osobe i kada postoje pravne ili stvarne zapreke za utvrđivanje odgovornosti odgovorne osobe. Pravne su zapreke predviđene pravnom normom (npr. imunitet, amnestija), a stvarne su one činjenice ili okolnosti koje stvarno postoje (npr. smrt odgovorne osobe, nemogućnost utvrđivanja istovjetnosti odgovorne osobe u pravnoj osobi). Zato je moguće utvrditi kaznenu odgovornost pravne osobe i kada nije moguće utvrditi koja je od odgovornih osoba u pravnoj osobi neposredno ostvarila obilježja kaznenog djela, npr. zbog hijerarhijske ili organizacijske neodređenosti ili složenosti unutar pravne osobe, a izvjesno je da jedna od njih jest. Sudska praksa potvrđuje takvu mogućnost.25
IV. Zaključak
21. Razvoj i sve šira primjena umjetne inteligencije nesporno otvaraju brojne mogućnosti za društveni i gospodarski napredak, ali istodobno donose i znatne rizike koji zahtijevaju prilagodbu kaznenopravnog sustava. Pregled iznesen u ovom radu jasno pokazuje kako postojeći kaznenopravni okvir, oblikovan u vrijeme kada se tehnologija temeljila gotovo isključivo na ljudskom djelovanju, ne može u cijelosti odgovoriti na specifične izazove koje donosi autonomno djelovanje strojeva. Posebno je problematičan odnos uzročnosti i krivnje u situacijama u kojima sustavi umjetne inteligencije djeluju bez izravne ljudske radnje, čime tradicionalni koncepti kaznene odgovornosti postaju nedostatni.
22. Uvođenje novog kaznenog djela dovođenja u opasnost života i imovine sustavom umjetne inteligencije u hrvatsko zakonodavstvo stoga je logičan i nužan korak. Time se ne samo popunjava pravna praznina, nego i osigurava da kazneno pravo ostane djelotvoran instrument zaštite temeljnih dobara u suvremenom tehnološkom okružju. Predložena zakonska rješenja vode računa o specifičnostima sustava umjetne inteligencije, uključujući različite faze razvoja, testiranja, nadzora i uporabe te omogućuju sankcioniranje i namjernih i nehajnih postupanja.
23. Ipak, donošenje zakonskog teksta samo je početak. Ključno je da se uz kaznenopravne norme razviju i odgovarajući mehanizmi stručnog vještačenja, međunarodna suradnja te etički standardi kako bi se osiguralo da se umjetna inteligencija upotrebljava na način koji promiče ljudski napredak, a ne stvara nesigurnost i nepovjerenje. Pitanje kaznene odgovornosti pravnih osoba dodatno naglašava složenost budućih izazova jer se iza svakog sustava umjetne inteligencije krije mreža ljudskih i institucijskih odluka.
24. Zaključno, novo kazneno djelo treba promatrati ne samo kao normativni instrument nego i kao signal spremnosti zakonodavca da odgovori na izazove četvrte industrijske revolucije. Samo uravnotežen pristup, koji će kombinirati zaštitu temeljnih prava s poticanjem inovacija, može osigurati da Republika Hrvatska, u skladu s europskim i međunarodnim pravnim razvojem i suvremenim standardima, bude spremna suočiti se s budućnošću u kojoj će umjetna inteligencija zauzimati važan dio ljudske svakodnevice.
Fusnote
-
1P. Novoselec, Opći dio kaznenog prava, Osijek: Pravni fakultet Osijek, 2016., str. 5.
-
2A. Raharjo, Y. Saefudin i R. Fidiyani, The influence of technology determinism in forming criminal act of legislation u E3S Web of Conferences, Vol. 73, 2018., str. 1. (dostupno na: https://www.e3s-conferences.org/articles/e3sconf/abs/2018/48/e3sconf_icenis18_12011/e3sconf_icenis18_12011.html; 15. 9. 2025.).
-
3T. F. Blauth, O. J. Gstrein i A. Zwitter, Artificial intelligence crime: An overview of malicious use and abuse of AI. Ieee Access, vol. 10, 2022., str. 77112 – 77118 (dostupno na: https://ieeexplore.ieee.org/abstract/document/9831441; 15. 9. 2025.)
-
4Taj problem posljednjih godina zaokuplja pozornost kaznenopravnih teoretičara pa su o njemu napisane čak i znanstvene monografije. Usp. npr. G. Hallevy, Liability for crimes involving artificial intelligence systems. Vol. 257. New York, NY, USA: Springer International Publishing, 2015., str. 47 – 184.
-
5O tome više npr. J. Sembiring i S. U. Firdaus, Criminal liability for misuse of artificial intelligence (ai) in deepfake crimes. International journal of multi science, 5(01), 2025., str. 1 – 9.
-
6Usp. T. C. King, N. Aggarwal, M., Taddeo i L. Floridi, Artificial intelligence crime: An interdisciplinary analysis of foreseeable threats and solutions. Science and engineering ethics, 26(1), 2020., str. 89-120.
-
7Ibid.
-
8Usp. npr. Blauth et al., op. cit. u bilj. 3, str. 7714 – 7715; King et al., op. cit. u bilj. 6, str. 104; vidi također i I. Vuletić, A. Novokmet i Z. Tomičić, Izazovi posebnog dijela kaznenog prava zbog razvoja umjetne inteligencije uz poseban osvrt na hrvatsko kazneno pravo, Zbornik Pravnog fakulteta u Zagrebu, 74(1), 2024., str. 10.
-
9O tome se u hrvatskoj kaznenopravnoj literaturi već opsežno pisalo. Vidi M. Mrčela i I. Vuletić, Kazneno pravo pred izazovima robotike: tko je odgovoran za prometnu nesreću koju je prouzročilo neovisno vozilo?, Zbornik Pravnog Fakulteta u Zagrebu, vol. 68 (3-4), 2018., str. 466 – 491.
-
10Ibid, str. 467.
-
11O tome v. npr. P. Gaeta, Who acts when autonomous weapons strike? The act requirement for individual criminal responsibility and state responsibility. Journal of International Criminal Justice, 21(5), 2023., str. 1033-1055.Vidi također i M. Bo, Autonomous Weapons and the Responsibility Gap in light of the Mens Rea of the War Crime of Attacking Civilians in the ICC Statute, Journal of International Criminal Justice, 19(2), 2021., str. 275 – 299.
-
12Detaljnije I. Vuletić, Rethinking Command Responsibility in the Context of Emerging AI Weapons. EU and comparative law issues and challenges series (ECLIC), 7, 2023., str.164.
-
13Usp. npr. T. Kinoshita i M. Komatsu, Artificial Intelligence in Surgery and Its Potential for Gastric Cancer, Journal of Gastric Cancer, 23(3), 2023., str. 400 – 409.
-
14Tako i M. Mrčela i I. Vuletić, Navigating Criminal Liability in an Era Of AI-Assisted Medicine. Medicine, law & society, 18(1), 2025., str. 104.
-
15King et al., op. cit. u bilj. 6, str. 97 – 100.
-
16Više o tome I. Vuletić i D. Duić, Adapting to New Realities: Financial Crimes and Emerging AI Technology in Global and EU Perspective. Balkan Social Science Review, 25, 2025., str. 70 – 72.
-
17Vuletić, Novokmet i Tomičić, op. cit. u bilj. 8, str. 16 – 19.
-
19V. rad citiran u bilj. 7. Sve dok na mjestu vozača sjedi osoba koja nadgleda sustav automatizirane pomoći pri vožnji, ta je osoba sudionik u prometu i u tom smislu prekršajno i kazneno odgovorna za kršenje prometnih propisa. Podjela autonomnosti vozila podrazumijeva šest razina automatizacije (https://www.sae.org/blog/sae-j3016-update/) . Na nultoj razini automatizirane su samo neke funkcije (primjerice, sustav automatskog kočenja, upozorenje za mrtvi kut, upozorenje za napuštanje prometnog traka). Prva razina podrazumijeva daljnju automatizaciju vožnje koja uključuje sustav za sprečavanje napuštanja prometnog traka (lane centering) ili prilagodljivu brzinu vožnje (tempomat ili cruise control). Druga razina uključuje oba sustava, dakle automatizirano je sprečavanje napuštanja prometnog traka i prilagodljiva brzina vožnje. Treća razina obuhvaća sve prethodno navedeno, ali i dodatne mogućnosti koje omogućuju vožnju kada su ispunjene određene pretpostavke na vozilu i kolniku. Jedna takva mogućnost je trafic jam chauffer, sustav koji omogućuje i vožnju u prometnim gužvama kada se vozilo kreće ovisno o brzini drugih vozila, ponajprije vozila ispred, ali i pored (takav sustav postoji u novom Ford Exploreru pa je u SAD-u na određenim prometnicama moguće da se vozilo kreće bez aktivne uloge vozača desetak pa i petnaestak minuta). Sve ove razine zahtijevaju prisutnost vozača i njegovu reakciju, odnosno aktivno upravljanje vozilom kad god sustav vozila to od vozača traži. U vozilu četvrte razine vozača nema za volanom, a vozilo se kreće samostalno samo u kontroliranim područjima, primjerice od točke A do točke B unaprijed određenim prometnicama. Na petoj razini automatizacije vozilo je također bez vozača i može se kretati svugdje i bilo kada. Tu ćemo razinu još čekati, ali u Zagrebu je za 2026. najavljeno puštanje u promet taksija četvrte razine, dakle vozila koje će voziti po unaprijed određenim dionicama bez vozača (https://forbes.dnevnik.hr/aktualno/hrvatska/predstavljen-rimcev-robotaksi-verne-koji-bi-za-dvije-godine-trebao-na-zagrebacke-ceste/) (17. 9. 2025.). Takvih taksija ima na ulicama gradova u SAD-u.
-
20Kazneni zakon („Narodne novine” broj 125/2011., 144/2012., 56/2015., 61/2015. – ispravak, 101/2017., 118/2018., 126/2019., 84/2021., 114/2022. 114/2023. i 36/2024.; dalje: KZ/11.)
-
21„Narodne novine” broj 67/2008., 48/2010. – Odluka Ustavnog suda Republike Hrvatske, 74/2011., 80/2013., 158/2013. – Odluka i Rješenje Ustavnog suda Republike Hrvatske, 92/2014., 64/2015., 108/2017., 70/2019., 42/2020., 85/2022, 114/2022., 133/2923. i 124/2024. (dalje: ZSPC).
-
22Riječ je o računalnim programima, jezicima, uputama itd., „tj. nefizički dio računalnog sustava”; https://bolje.hr/rijec/software-gt-programska-podrska/113/ (17. 9. 2025.).
-
23V. članak 3. stavak 1. Uredbe (EU) 2024/1689 Europskog parlamenta i Vijeća od 13. lipnja 2024. o utvrđivanju usklađenih pravila o umjetnoj inteligenciji i o izmjeni uredaba (EZ) br. 300/2008., (EU) br. 167/2013., (EU) br. 168/2013., (EU) 2018/858, (EU) 2018/1139 i (EU) 2019/2144 te direktiva 2014/90/EU, (EU) 2016/797 i (EU) 2020/1828 (Akt o umjetnoj inteligenciji).
-
24„Narodne novine”, broj 151/2003., 110/2007., 45/2011., 143/2012., 114/2022. i 114/2023.
-
25V. presudu Županijskog suda u Varaždinu broj Kž-401/2019. od 26. studenog 2019. u kojoj, među ostalim, stoji: „Kao stvarna zapreka za kazneni progon odgovorne osobe ima se smatrati i nemogućnost identifikacije odgovorne osobe kao počinitelja kaznenog djela. [Zato] činjenica da ta odgovorna [fizička] osoba optuženika nije identificirana ne isključuje kaznenu odgovornost optuženika [pravne osobe] sukladno citiranom čl. 5. st. 2., prema kojem će se pravna osoba kazniti za kazneno djelo odgovorne osobe i u slučaju kad se utvrdi postojanje stvarnih zapreka za utvrđivanje odgovornosti odgovorne osobe.”
LITERATURA
BIBLIOGRAFIJA
T. F. Blauth, O. J. Gstrein, O.J. i A. Zwitter, Artificial intelligence crime: An overview of malicious use and abuse of AI. Ieee Access, vol. 10, 2022.
M. Bo, Autonomous Weapons and the Responsibility Gap in light of the Mens Rea of the War Crime of Attacking Civilians in the ICC Statute, Journal of International Criminal Justice, 19(2), 2021.
P. Gaeta, Who acts when autonomous weapons strike? The act requirement for individual crimi- nal responsibility and state responsibility. Journal of International Criminal Justice, 21(5), 2023.
G. Hallevy, Liability for crimes involving artificial intelligence systems. Vol. 257. New York, NY, USA: Springer International Publishing, 2015.
T. C. King, N. Aggarwal, M., Taddeo i L. Floridi, Artificial intelligence crime: An interdisciplinary analysis of foreseeable threats and solutions. Science and engineering ethics, 26(1), 2020.
T. Kinoshita i M. Komatsu, Artificial Intelligence in Surgery and Its Potential for Gastric Cancer, Journal of Gastric Cancer, 23(3), 2023.
M. Mrčela i I.Vuletić, Kazneno pravo pred izazovima robotike: tko je odgovoran za prometnu nesreću koju je prouzročilo neovisno vozilo?, Zbornik Pravnog Fakulteta u Zagrebu, vol. 68 (3-4), 2018.
M. Mrčela i I. Vuletić, Komentar Kaznenog zakona – opći dio, Libertin naklada, Rijeka, 2021.
M. Mrčela i I. Vuletić, Navigating Criminal Liability in an Era Of AI-Assisted Medicine. Medicine, law & society, 18(1), 2025
P. Novoselec, Opći dio kaznenog prava, Osijek: Pravni fakultet Osijek, 2016.
A. Raharjo, Y. Saefudin i R. Fidiyani, The influence of technology determinism in forming crimi- nal act of legislation u E3S Web of Conferences, Vol. 73, 2018., str. 1.
J. Sembiring i S. U. Firdaus, Criminal liability for misuse of artificial intelligence (ai) in deepfake crimes. International journal of multi science, 5(01), 2025.
I. Vuletić, Rethinking Command Responsibility in the Context of Emerging AI Weapons. EU and comparative law issues and challenges series (ECLIC), 7, 2023.
I. Vuletić, A. Novokmet i Z. Tomičić, Izazovi posebnog dijela kaznenog prava zbog razvoja umjetne inteligencije uz poseban osvrt na hrvatsko kazneno pravo. Zbornik Pravnog fakul- teta u Zagrebu, 74(1), 2024.
I. Vuletić i D. Duić, Adapting to New Realities: Financial Crimes and Emerging AI Technology in Global and EU Perspective. Balkan Social Science Review, 25, 2025.