KCI등재
인공지능 로봇에 관한 형사책임 - 인공지능형법에 의한 형사처벌가능성을 중심으로 - = Criminal Liability of Artificial Intelligence Robots - Focusing on the Possibility of Criminal Punishment by Artificial Intelligence Criminal Law -
저자
발행기관
학술지명
권호사항
발행연도
2022
작성언어
Korean
주제어
등재정보
KCI등재
자료형태
학술저널
발행기관 URL
수록면
63-86(24쪽)
DOI식별코드
제공처
According to a report by the U.S. Road Traffic Safety Administration, when looking at the development stage of self-driving vehicles, Level 1 means cruise function and Level 2 means integrated automation vehicles. Level 3 vehicle is a partially autonomous vehicle and can be manually switched if necessary, and level 4 means a completely unmanned autonomous vehicle.
This paper mainly deals with level 3, which refers to a vehicle designed to allow the driver to fully leave the driving to the autonomous driving technology of the car in autonomous driving mode and allow the driver to drive the car himself when switching to general driving mode.
Self-driving cars can be seen as different in the strict sense from unmanned cars that move without people on board, but in reality, they are used interchangeably in terms of terms.
In the case of artificial intelligence self-driving vehicles, commercialization is expected soon, and in this case, it is skeptical that it is meaningful to impose penalties on self-driving vehicles in the event of an accident. It is unlikely that it will be meaningful to impose capital punishment and prison sentences equivalent to natural persons on self-driving vehicles. This is because disassembling self-driving vehicles or storing self-driving vehicles in a certain place seems to have no criminal legal meaning at the moment.
It is also questionable whether resetting the program of artificial intelligence has a punitive meaning close to the death penalty for humans. Artificial intelligence will not be able to be fined.
This is because artificial intelligence robots cannot accumulate assets, and artificial intelligence robots will not open deposit accounts and make financial transactions like humans.
Therefore, it is not easy to imagine at the current stage of holding human-equivalent criminal liability. Because it learns and develops on its own, the progress of artificial intelligence robots may actually be made faster than humans imagine.
As mentioned for a while in the beginning, it should also be kept in mind that the timing of artificial intelligence singularities may come. However, so far, taking criminal responsibility for artificial intelligence is unlikely to be possible by the current criminal concept until it reaches the level of an artificial intelligence robot that can make moral judgments. Artificial intelligence robots will not be able to put artificial intelligence robots in targets where punishment norms are applied to categories different from human categories. This is because it will not be easy to recognize the behavioral concept of artificial intelligence robots with criminal legal meaning.
인공지능로봇에게 형사책임을 부과하려면 그 전제로서 인공지능로봇이 형사처벌 조문위반을 한다는 의식 자체를 갖고 있는지 여부에 대한 증명이 선행되어야 할 것이다. 본고를 통해 아직까지는 국내에서 연구가 미진한 인공지능 로봇에 대한 문제에 대하여 전반적 문제점을 전달하고자 하였다. 결론부분에 그에 대한 이유가 드러나 있는데, 전반적으로 인공지능 형사처벌 논의에 대해서 회의적인 시각을 지니고 있기 때문에 세부적으로 깊게 파고들기보다는 여러 논의를 언급할 수밖에 없었다. 또한 본고의 ‘4. 인공지능을 둘러싼 형사처벌’ 제하에서 인공지능을 둘러싼 형사처벌 관련 논의에서 본고에서주장하는 바를 잘 정리하여 제시하려고 노력하였다. 범죄주체를 인간만으로 한정하든지, 혹은 인공지능 로봇까지 범죄주체로 인정하든지는 자연과학적으로 결정되는 문제가 아니라 사회문화적으로 결정하여 부과할 문제이기는 하지만 이러한 문제를 다룸에 있어서는 인공지능 로봇에게 형사책임을 부과할 때에는 의심스러울 때에는 피고인의 이익으로라는 in dubio pro reo 원칙을 상기해야 한다. 인공지능의 형사책임 문제에 관한 연구의 역사는 그리 오래 되지 않았다. 아마 인공지능에 자연인과 다른행위주체로서의 인격을 부여하기 시작한 때로부터 논의가 시작될 수밖에 없었기 때문일 것이다. 우리나라의 경우에도 법무부에서 2017년 상반기에 들어서야 형사정책연구원에 연구용역을 주어 연구를시작한 바 있다.
상황이 이러하기에 현재까지는 이와 관련한 연구결과가 많지 않은 실정이고 이 주제에 관해서 여전히더 많은 연구의 필요성이 있다. 인공지능의 형사책임 문제에 대해서는 이렇다 할 규범이 없는 상황이기때문에 기존에 나와 있는 연구를 기반으로 하여 규범을 정립하기 위한 개인적인 견해들을 담았고 새로운 이론을 창출해 보려고 노력했다. 이 주제에 관한 논의를 위해서는 인공지능의 형사책임이란 것이 과연 무엇일지, 혹은 인공지능 자체의 고의와 과실이라는 것이 있을 수 있는지를 검토해 보아야 한다.
인공지능의 형사책임이라는 건 인공지능 ‘자체’에 대한 형사책임을 일컫는 개념이겠지만, 인공지능의 형사책임을 논함에 있어서 자연인을 빼고 관념하기가 쉽지만은 않을 것이다.
인공지능의 형사처벌과 관련한 문제는 흥미롭고 중요한 주제이자 시사적인 주제이기에 최근에 전세계 많은 사람들이 관심을 갖고 있고, 근간에는 인공지능에 의해 사건사고들이 발생하기도 하였다.
그에 대하여 인공지능을 어떻게 처벌할지와 어느 정도의 선에서 처벌할지에 대한 고민도 있었고, 자연인인 행위주체에 대한 처벌을 어떻게 할 것인가에 대한 문제들도 있었다.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)