KCI등재
생성형 AI 시대의 개인정보보호 규제 연구 — 미디어ㆍ저널리즘 분야의 주요 법적 쟁점을 중심으로 — = A Study on Personal Data Protection Regulation in the Era of Generative AI — Focusing on key legal issues for Media and Journalism —
저자
염규현 (문화방송)
발행기관
학술지명
권호사항
발행연도
2025
작성언어
Korean
주제어
등재정보
KCI등재
자료형태
학술저널
수록면
1-41(41쪽)
제공처
AI 기술의 급속한 발전은 기존 법 체계에 새로운 도전을 제기하고 있다. 특히, 미디어・저널리즘 환경에서도 생성형 AI의 활용이 증가함에 따라 표현의 자유를 보장하면서도 개인정보 보호와 명예훼손 방지를 담보할 수 있는 균형 잡힌 규제 방안에 대한 필요성이 제기되고 있다. 이에 본고에서는 해외 규제 사례 등을 바탕으로 주요 법적 쟁점을 제시하고, 대응 방안을 모색하고자 한다.
AI가 생성한 콘텐츠로 인한 명예훼손이나 사생활 침해에 대한 책임 소재 불분명, 의사결정 과정의 불투명성, 알고리즘 편향성에 의한 차별 등이 주요 문제로 부상하고 있다. 특히 AI의 자기학습 능력으로 인한 예견가능성 판단의 어려움과 개발 및 운영 과정에서 여러 주체의 관여로 인한 책임 소재 불명확성은 전통적 법 적용에 한계를 가져오고 있다.
본 연구는 EU 인공지능법(AI Act)의 위험 기반 접근법, 미국의 표현의 자유 중심 규제, 중국과 일본의 사례 등 국제적 규제 동향을 분석하고, 생성형 AI의 미디어・저널리즘 환경에서의 특수성을 고려한 실효성 있는 법적 대응방안을 다음과 같이 제시한다.
첫째, 미디어・저널리즘 분야 AI 특화 법적 규제 방안으로, AI 생성 콘텐츠에 대한 책임 소재를 명확히 하고 투명성 의무를 법제화하여 미디어 소비자가 정보의 출처와 생성 방식을 인지할 수 있도록 해야 한다. 둘째, 위험형법 이론과 언론윤리 원칙의 결합을 통해 AI 기술이 초래할 수 있는 잠재적 위험을 관리하면서도 언론의 자유를 과도하게 제한하지 않는 균형점을 찾아야 한다. 셋째, 회복적 사법 접근법과 언론 피해 구제 제도의 통합을 통해 AI 관련 개인정보 침해 사고의 특성을 고려한 효과적인 피해 회복 및 재발 방지 메커니즘을 구축해야 한다. 넷째, AI 콘텐츠 검증 시스템과 알고리즘 감사제도와 같은 기술적 해법을 도입하여 명예훼손이나 사생활 침해를 사전적으로 방지하고 책임 소재를 명확히 해야 한다. 마지막으로, 법적 규제와 업계 차원의 자율규제의 조화를 통해 표현의 자유를 최대한 보장하면서도 개인정보를 보호할 수 있는 책임 있는 AI 활용이 이루어질 수 있는 환경을 조성해야 한다.
The rapid advancement of AI technology is posing new challenges to existing legal frameworks. Particularly, as the use of generative AI increases in media and journalism environments, there is a growing need for balanced regulatory measures that can guarantee freedom of expression while ensuring privacy protection and prevention of defamation. This paper aims to present key issues and explore countermeasures based on overseas regulatory cases.
Major issues emerging include unclear responsibility for defamation or privacy infringement caused by AI-generated content, opacity in decision-making processes, and discrimination due to algorithmic bias. In particular, the difficulty in determining predictability due to AI's self-learning capabilities and the ambiguity of responsibility due to the involvement of multiple entities in development and operation are bringing limitations to the application of traditional law.
This study analyzes international regulatory trends such as the EU's AI Act with its risk-based approach, the US's regulation centered on freedom of expression, and cases from China and Japan. It proposes effective legal countermeasures considering the specificity of generative AI in media and journalism environments as follows: First, as an AI-specialized legal regulation for the media and journalism field, the source of responsibility for AI-generated content should be clarified, and transparency obligations should be legislated to allow media consumers to recognize the source and generation method of information. Second, a balance point that manages potential risks that AI technology may bring while not excessively restricting press freedom should be found through the combination of risk criminal law theory and press ethics principles. Third, an effective damage recovery and recurrence prevention mechanism considering the characteristics of AI-related crimes should be established through the integration of restorative justice approaches and press damage remedy systems. Fourth, technical solutions such as AI content verification systems and algorithm audit systems should be introduced to prevent defamation or privacy infringement in advance and clarify responsibility. Finally, an environment where responsible AI utilization can take place while guaranteeing freedom of expression to the maximum extent should be created through the harmony of legal regulations and industry-level self-regulation.
As a balanced approach that can simultaneously protect freedom of expression and individual rights is needed in the press and media environment of the AI era, it is important to continuously monitor the development trend of AI technology and flexibly develop a legal system in response.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)