Can artificial intelligence because of its caused damage be held criminally liable?

Abstract

Darbe keliamas klausimas, ar dirbtinis intelektas (toliau – DI) sukeltos žalos atveju gali būti traukiamas baudžiamojon atsakomybėn. Siekiant atsakyti į darbo klausimą, darbe įvertintas DI technologijos sukeliamos žalos mąstas ir pavojingumas, ar jis gali siekti baudžiamumą. Ištyrus dvi nusikalstamas veikų grupes (nusikaltimai žmogaus gyvybei ir sveikatai bei nusikaltimai transporto eismo saugumui), darbe daroma išvada, kad DI, savo veiksmais galėdamas sukelti pavojų žmogaus sveikatai ir gyvybei, yra laikomas objektu, kurio sukelta žala yra pavojinga ir siekia baudžiamumą. Tačiau DI sistema pati iš savęs kol kas neturi psichologinio ketinimo nusikalsti. Nors sistemos veiksmai yra tiesiogiai susiję su pasekmėmis, tačiau dėl intereso nusikalsti nebuvimo negalima jai inkriminuoti kaltės. Dėl šios priežasties atsakymas į darbo klausimą yra neigiamas, t. y. DI pats atsakyti už savo sukeltą žalą dar kol kas negali. Tačiau atsakomybę vis tiek turi kažkas prisiimti. Darbe numatoma, kad atsakomybę už DI sukeltą žalą gali prisiimti keli skirtingi žmonės: DI kūrėjas, programuotojas, operatorius, techninės įrangos dizaineris ar paprastas civilis – DI savininkas (sąrašas nėra baigtinis). Kuris iš išvardintų asmenų yra atsakingas, sprendžiama atsižvelgus į konkrečios žalos kylimo aplinkybes ir smulkmenas. Darbe taip pat numatomos prevencinės priemonės, kurios padėtų sumažinti DI keliamos žalos riziką, kaip, pavyzdžiui, DI kūrimo priežiūros tarybos įsteigimas. Kartu su prevencinėmis priemonėmis darbe formuluojama išvada, kad sankcijos taikomos tik asmeniui neužtikrins, jog DI ateityje nekartos nusikalstamų veiksmų. Atsižvelgiant į tai, darbe siūloma kartu su taikomomis sankcijomis pritaikyti pareigą asmeniui,atsižvelgus į žalos dydį, reabilituoti arba neutralizuoti DI.The work raises the question of whether artificial intelligence (“AI”) can be prosecuted in case of damage. In order to answer the question of work, the thesis assesses the extent and severity of the damage caused by AI technology and whether it can pursue a criminal offense. After investigating two groups of criminal offenses (crimes against human life and health and crimes against traffic safety), the work concludes that AI acts as a threat to human health and life as an object that causes harm and seeks punishment. However, AI system itself does not yet have a psychological intention to commit a crime. For this reason, the answer to the question of work is negative. However, responsibility must still be borne by someone. The work assumes that the responsibility for the damage caused by AI can be assumed by several different people: the AI developer, the programmer, the operator, the hardware designer or the ordinary civilian owner of AI (the list is not exhaustive). Which of the following persons is responsible is determined by the circumstances and details of the specific damage. The work also includes preventive measures to reduce the risk of AI damage. Together with preventive measures, the work formulates the conclusion that sanctions applied only to a person will not ensure that AI will not repeat criminal acts in the future. Against this background, it is suggested that the punishment should be accompanied by the imposition of an obligation on the person concerned to rehabilitate or neutralize AI, taking into account the extent of the damage.Teisės fakulteta

Similar works

Full text

thumbnail-image

Vytautas Magnus University Institutional Repository (VMU ePub)

redirect
Last time updated on 05/09/2019

Having an issue?

Is data on this page outdated, violates copyrights or anything else? Report the problem now and we will take corresponding actions after reviewing your request.