KCI등재
생성형 인공지능(Generative AI) 기술의 규제 방향에 대한 입법론적 고찰 - ChatGPT 등 인공지능 시스템 생성물에 대한 표시·고지의무를 중심으로 - = Legislative Study on Directions Concerning Regulation of Generative Artificial Intelligence (AI) Systems - Focusing on Duty to Disclosure and Transparency Regarding the Creations of Generative AI Systems Such as ChatGPT -
2022년 12월, ChatGPT 서비스가 출시된 이래, 이른바 생성형 인공지능(Generative AI)에대한 관심이 높아지고 있다. 하나의 인격체처럼 대화하고, 인간보다 빠르게 글을 쓰고, 심지어는 미술, 작곡 등 예술 분야에서까지 인간의 능력을 위협하는 생성형 인공지능에 대하여 사람들은 큰 기대와 깊은 우려를 동시에 갖게 되었다.
기존의 머신러닝 알고리즘을 기반으로 하는 인공지능은 주어진 특정 데이터를 기초로 어떠한 결과를 예측하는 수준에 머물렀지만, 딥러닝 생성 모델을 기반으로 하는 생성형 인공지능은 과거에 보지 못한 글과 음성, 영상 등 완전히 새로운 데이터를 생성해낼수 있다는 점에서 기존의 인공지능과는 확연히 구별되는 새로운 형태의 인공지능이다.
한편, 생성형 인공지능으로 인한 다양한 문제가 발생하기 시작했다. 타인의 사진을이용하여 딥페이크 포르노나 조롱거리가 될 만한 영상을 제작하는 사례부터, 챗봇에 정서적으로 의존한 나머지 챗봇의 자살 권유에 따라 자살에 이르는 사례까지 생성형인공지능은 무한히 활용 가능한 만큼, 무한히 오용가능하다는 점이 드러나고 있다. 생성형 인공지능의 생성물은 실제와 구별하기 어려울 정도로 정교하기 때문에 오용에따른 위험이 현저함에도 불구하고, 우리 현행법은 이에 대응하는 데에 한계가 있다.
생성형 인공지능에 대한 포괄적 규제는 초기 성장 단계에 있는 인공지능 기술의 발전을 저해시킬 수 있다는 점에서 성급히 도입되어서는 안 된다. 그러나 현재 발생하고있는 문제상황에 대응하기 위한 과도기적 규제는 필요하다. 첫째, ‘이용자’에게는 명예훼손 목적, 범죄이용목적 등으로 생성형 인공지능 시스템을 활용하는 행위를 금지할필요가 있다. 둘째, ‘제공자’에게는 인공지능 생성물에 대하여 인공적인 방법으로 제작된 것임을 나타내는 표시를 하게 할 필요가 있다. 셋째, 생성물의 위험의 정도에 따라규제의 정도를 차등하고, 규제 위반에 대한 형사벌과 행정벌을 혼용하는 등 과도기적상황에 유연하게 대처할 수 있어야 한다.
Since the launch of ChatGPT in the United States last year, generativ e AI has garnered considerable attention throughout the world. It has al so raised serious concerns, however, due to its human-like ability to c ommunicate with people in lots of different social contexts, produce a wide variety of written contents, and create a multitude of images, audios, and videos, all of which were impossible with traditional search eng ines. In line with these concerns, this paper will discuss some of the l egal implications of generative AI, the misuse of which can bring signifi cant harms to both individuals and society at large. This paper will firs t examine the definition and types of generative AI, then discuss the i mportance of and the need for proper categorization of it. The paper wi ll also discuss specific cases of misuse of generative AI systems, whic h will be looked into from the perspectives of service providers and us ers. The paper will next discuss how to regulate use of generative AI, while promoting its technological advancement and ensuring protection o f fundamental rights of citizens. Finally, the paper will conclude with se tting out recommendations for regulation of generative AI, with a partic ular focus on duty to disclose and maintain transparency.
더보기분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)