KCI등재
인공지능 활용 감시에 따른 기본권 침해 위험과 규범적 대응 = Normative Responses to the Risk of Human Rights Violations from AI-Based Surveillance
저자
홍석한 (전남대학교)
발행기관
학술지명
권호사항
발행연도
2024
작성언어
Korean
주제어
등재정보
KCI등재
자료형태
학술저널
수록면
325-354(30쪽)
DOI식별코드
제공처
소장기관
인공지능은 방대한 데이터를 기반으로 자율적으로 학습하며 실시간으로 평가와 분석을 수행함으로써목적 달성을 위한 예측과 결정을 한다. 국가는 인공지능을 활용함으로써 늘어나는 공적 과제를 신속하고효율적으로 해결할 수 있다. 그러나 이와 동시에 감시 체제의 고도화와 그에 따른 기본권 침해 가능성이커지므로 이러한 위험을 진단하고 적절한 대응 방안을 마련해야 한다.
국가는 인공지능을 활용하여 감시 체제를 구축하면서 개인에 관한 규범적 판단과 평가, 그에 따른 집행을 자동화할 수 있다. 이는 인간의 존엄과 가치에 기초한 개인의 자율성을 억압하고, 자기결정권과 일반적 행동의 자유를 실질적으로 억압하는 결과를 초래한다. 또한 편향성 및 오류 가능성과 같은 인공지능의 한계에도 불구하고 이를 활용한 감시와 그에 기초한 결정을 지속한다면 공적 과제 수행의 정확성과객관성을 훼손하고 불합리한 차별을 영속시킬 수 있다. 또한 민감정보를 포함하여 무수한 개인정보를 수집하고, 개인을 식별하거나 추적할 수 있도록 하여 개인정보자기결정권을 비롯한 사생활 영역에 대한 보호를 침해하기 쉽다. 이 밖에도 감시 활동에 대한 알 권리 보장이 어려울 뿐만 아니라 시간적, 공간적 제약이 없이 이루어지는 광범위하고 정밀한 인공지능 감시는 자기검열을 유발하고 익명성 확보 조치를 무력화하여 표현의 자유를 위축시킬 수 있다.
국가가 인공지능 활용에 따른 이점을 충분히 누리도록 하면서도 감시 체제 구축에 따른 기본권 침해의 위험을 최소화할 수 있는 규범적 대응 방안을 마련해야 한다. 이는 국가가 인공지능을 활용하여 감시를 진행할 때 법치주의에 따른 한계를 준수하도록 함으로써 가능할 것이다.
우선, 인공지능을 활용한 감시가 명확한 법적 근거를 갖추도록 해야 한다. 공권력 작용에 대한 기존의법제를 전반적으로 검토하여 인공지능 환경에 맞도록 수정하는 한편 인공지능의 고유한 특징 및 위험에부합하는 규범 체계를 새롭게 정립하는 것이다. 국가가 필요한 범위 내에서 인공지능을 활용한 감시를하는 경우 그러한 활동이 투명성과 객관성, 정확성을 확보할 수 있는 장치를 포함하도록 해야 한다. 감시대상자에게 인공지능 활용 감시에 관한 정보를 제공하고, 정보에 대한 실질적 접근 가능성을 보장해야하며, 인공지능의 편향성과 차별 위험을 방지하기 위해 데이터의 품질을 보장하기 위한 장치나 제도를규범에 반영해야 한다. 나아가 인공지능을 활용하기에 앞서 사전에 적합성 및 위험성을 평가하고, 인공지능을 활용하는 전 단계에 걸쳐 감독이 가능하도록 국가기관 내외부에 체계적인 거버넌스를 구축해야한다. 국가의 인공지능 활용 감시를 중립적이고 객관적으로 평가, 감독할 수 있는 제도를 마련하는 한편, 사전에 당사자가 감시 및 그에 따른 결정에 참여할 수 있는 절차를 보장하고 부당한 감시와 결정에 대해서는 간편하고 쉽게 권리구제를 도모할 수 있도록 해야 한다.
AI autonomously learns from vast amounts of data and conducts real-time evaluations and analyses, enabling it to make predictions and decisions aimed at achieving specific goals. By utilizing AI, the state can swiftly and efficiently solve increasing public tasks. However, this also heightens the risk of human rights violations due to the advancement of surveillance systems. Thus, it is crucial to assess these risks and establish appropriate countermeasures.
When the state uses AI to build a surveillance system, it can automate normative judgments and assessments of individuals, as well as the enforcement of related actions. This can suppress personal autonomy based on human dignity, effectively infringing on individual self-determination and the freedom to act. Moreover, despite the limitations of AI—such as bias and errors—if surveillance and decisions based on it persist, it can undermine the accuracy and objectivity of public task execution, perpetuating unreasonable discrimination. Additionally, as AI collects vast amounts of personal information, it becomes easier to violate the right to informational self-determination and invade privacy. Furthermore, it is challenging to guarantee the right to know about surveillance activities, and AI-powered surveillance can have a chilling effect on freedom of expression.
The state must devise normative countermeasures to minimize the risk of human rights violations associated with the development of surveillance systems while still enjoying the benefits of AI. This can be achieved by ensuring that AI-based surveillance adheres to the rule of law. First, AI surveillance must be based on a clear legal foundation. Existing legal frameworks governing public authority must be reviewed comprehensively and revised to fit the AI environment, while establishing new regulatory systems that account for the unique characteristics and risks of AI.
When the state uses AI surveillance within the necessary scope, such activities must include mechanisms that ensure transparency, objectivity, and accuracy. Individuals subject to AI surveillance should be informed about such activities, and meaningful access to this information must be guaranteed. Additionally, to prevent AI bias and discrimination, measures should be taken to ensure the quality of the data used, and these measures should be reflected in regulations. Furthermore, before utilizing AI, a suitability and risk assessment should be conducted, and a systematic governance structure must be established within and outside government agencies to enable supervision throughout all phases of AI usage. The state should also establish institutions that can neutrally and objectively evaluate and supervise AI surveillance, while ensuring that individuals have the right to participate in surveillance-related decisions and providing easy and accessible legal remedies against unjust surveillance and decisions.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)