KCI등재
생성형 인공지능(AI)을 이용한 명예훼손 범죄의 책임귀속 주체와 그 내용에 관한 고찰 = A Study on the Attribution of Responsibility and Its Content in Defamation Crimes Involving Generative Artificial Intelligence
저자
발행기관
학술지명
권호사항
발행연도
2024
작성언어
Korean
주제어
등재정보
KCI등재
자료형태
학술저널
발행기관 URL
수록면
217-250(34쪽)
제공처
명예훼손 범죄는 개인의 사회적 평판을 해치는 사실적시 또는 허위사실의 적시를 다루는 형법적 개념이다. 인공지능(AI) 시대가 도래하기 전에는 말이나 행동, 그리고 신문, 잡지, 라디오, 출판물 등이 명예훼손의 주요 수단이었으나, 디지털 시대에는 사이버 공간을 통해 순식간에 초국경적으로 다수에게 피해를 확신시키고 있다. 이에 더하여 생성형 AI 기술을 이용한 명예훼손 범죄는 중대한 전환점을 맞이하고 있다. 최근 ChatGPT로 대표되는 생성형 AI 기술의 급속한 발전은 누구나 단시간에 저렴한 비용으로 허위사실이나 허위영상 등을 제작하여 온라인 플랫폼, 페이스북, 인스타그램 등과 같은 소셜 네트워크 서비스(SNS) 등에 게시하는 방법으로 순식간에 유포・재생산하여 회복 불가능하고 광범위한 피해를 발생시키고 있다.
생성형 AI는 인간도 아니고 법인도 아니기 때문에 피해자가 생성형 AI 자체를 대상으로 명예훼손 소송을 제기할 수 없다. 그러나 생성형 AI 시스템을 직접 이용하는 자, 생성형 AI 서비스제공자, AI 설계자/제작자는 일정한 조건이 충족될 때 형사책임의 주체로 인정할 수 있다.
따라서 이 논문에서는 생성형 AI를 이용한 새로운 명예훼손 사례에 있어 누가 책임귀속의 주체인지, 그 책임의 구체적 내용은 무엇인지를 고찰함으로써 현재와 미래의 명예훼손 형사소송 당사자들이 직면하게 될 도전을 검토하고자 한다. 이 논문에서는 먼저 생성형 AI 기술의 출현에 따른 명예훼손 범죄의 새로운 법적 문제를 살펴본다. 다음으로, 생성형 AI를 이용한 명예훼손 범죄 책임귀속의 주체로 생성형 AI 직접 이용자, 생성형 AI 서비스제공자, 생성형 AI 개발 설계자/제작자, 그리고 생성형 AI 그 자체를 고찰한다. 셋째, 생성형 AI를 이용한 명예훼손 범죄의 형사책임의 내용과 관련하여 직접 이용자의 정보통신망법상 허위사실 적시 명예훼손죄의 주요 법적 쟁점, 생성형 AI 서비스제공자의 부작위 방조범의 성립 요건, 직접 이용자에 대한 형법 제310조 위법성조각사유 적용 여부와 형법 제310조 착오의 문제를 검토한다.
이 글은 생성형 AI를 이용한 명예훼손 범죄와 관련하여 진화하는 법리와 잠재적인 해결책에 대한 통찰력을 제공하고자 한다. 이를 통해 생성형 AI 시대에 명예훼손으로 인한 잠재적인 사회적 피해에 적극적으로 대처하고, 표현(언론)의 자유를 보장하기 위한 법적 프레임과 책임 있는 생성형 AI 기술 개발과 관련된 규제의 필요성을 둘러싼 지속적인 담론에 기여하고자 한다.
Defamation is a legal concept under criminal law that deals with the act of damaging an individual's social reputation through the disclosure of factual statements or the assertion of false information. Before the advent of the AI era, speech, actions, newspapers, magazines, radio, and publications were the primary means of defamation. However, in the digital age, defamation can quickly cause harm to many across borders through cyberspace. Furthermore, the crime of defamation using generative AI technology has reached a critical turning point. The rapid development of generative AI technology, exemplified by ChatGPT, now enables anyone to quickly and cheaply create false information or fake videos, which can be posted on online platforms and social network services (SNS) such as Facebook and Instagram. This allows for the instantaneous spread and reproduction of content, causing irreparable and widespread harm.
Since generative AI is neither a human nor a legal person, a defamation lawsuit cannot be filed directly against the AI itself. However, under certain conditions, those who directly use generative AI systems, the service providers, and the AI designers/developers can be held criminally responsible.
Therefore, this paper aims to examine who bears the responsibility in cases of defamation involving generative AI, and what the specific details of that responsibility are, by exploring the challenges that current and future parties in defamation lawsuits will face. First, the paper will address the new legal issues surrounding defamation crimes brought about by the emergence of generative AI technology. Next, it will consider the parties responsible for defamation crimes involving generative AI, including direct users of generative AI, service providers, developers/designers, and generative AI itself. Third, regarding the criminal liability in defamation crimes using generative AI, it will explore key legal issues such as the application of defamation laws under Act On Promotion Of Information And Communications Network Utilization And Information Protection to direct users, the conditions for establishing the liability of service providers as accomplices through omission, whether the justification of Article 310 of the Criminal Act applies to direct users, and the issue of mistake under Article 310 of the Criminal Act.
This Article aims to provide insights into the evolving legal principles and potential solutions regarding defamation crimes involving generative AI. Through this, the paper seeks to actively address the potential social harm caused by defamation in the era of generative AI and contribute to the ongoing discourse surrounding the legal framework necessary to protect freedom of speech and expression. It also highlights the need for regulations related to the responsible development of generative AI technology.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)