KCI등재
알고리즘 규제를 위한 지도 - 원리, 구조, 내용 -
저자
발행기관
학술지명
권호사항
발행연도
2020
작성언어
Korean
주제어
등재정보
KCI등재
자료형태
학술저널
발행기관 URL
수록면
129-159(31쪽)
KCI 피인용횟수
0
DOI식별코드
제공처
인공지능 기술의 급속한 발전에 따른 편익은 이미 여러곳에서 체감할 수 있지만, 그 역기능에 대한 우려도 적지 않다. 알고리즘 규제에 관한 다양한 논의는 규제의 원리와 구조, 그리고 내용에 관한 측면으로 나누어 살펴볼 수 있다.
규제의 원리와 관련해서는 자유 제한의 정당성 근거와 알고리즘 규제의 원리적 특성이 문제된다. 자유의 제한이 어떻게 정당화되는지를 바라보는 시각은 자유주의적 관점, 공리주의적 관점, 공동체주의적 관점에 따라 달라진다. 그러나 무엇보다도 자유와 정의의 우선성이 인정될 필요가 있을 것이다. 알고리즘 규제의 원리적 특성의 문제는 다시 둘로 나뉜다. 먼저 알고리즘이 규제자에 의하여 이용되거나 알고리즘 자체가 규제자의 역할을 하는 경우의 문제, 즉 알고리즘에 의한 규제의 문제가 있다. 전자는 법치주의와 민주주의를 실질적으로 관철해 가는 것이 핵심인 반면 후자는 사실상 알고리즘에 대한 규제의 문제이다. 다음으로 알고리즘 자체가 피규제자가 될 수 있는지의 문제, 즉 알고리즘에 대한 규제의 문제가 있다. 그러나 현 단계의 인공지능은 규제 당사자가 될 주체성을 지닌다고 볼 수 없다. 결국 알고리즘 규제가 일반적 규제와 다른 원리적 차이점을 지닌 것은 아니다.
규제의 구조적 측면에서는 다양한 규제의 구조와 유형 가운데 어떤 것이 알고리즘 규제에 적합한지가 문제된다. 신산업의 경우 예측의 곤란성과 변화의 속도라는 특성으로 인해 그에 대한 규제 내용을 미리 정하기 어려우므로, 신산업의 규제에 있어서는 잠정적 규제, 절차적 규제, 자율규제, 원칙중심 규제와 같은 ‘유연한 규제’가 요구된다. 알고리즘, 특히 인공지능 기술 역시 신산업으로서의 특징을 공유하므로 그에 대한 바람직한 규제 구조는 유연한 규제라고 할 수 있다.
이처럼 알고리즘 규제의 내용을 미리 정하기는 어렵지만, 최근의 인공지능 윤리 논의로부터 규제의 내용적 측면과 관련하여 두 가지 시사점을 얻을 수 있다. 우선 알고리즘의 활용 과정에서 발생하는 위험을 평가하여 그에 대한 규제 내용을 결정하기 위한 기준을 정식화할 수 있다. 즉 규제의 정당성 근거와 관련지어 위험의 속성을 분류하고, 그 속성이 이익형량을 허용하는 경우 위험과의 비례성을 고려하여 규제 여부 및 규제 수단을 결정하는 것이다. 본고는 위험을 다음과 같이 6가지로 유형화하였다. i) 타인의 기본적 자유를 침해하는 경우, ii) 기회의 균등을 침해하는 경우, iii) 문제되는 행위로 인해 경쟁이 침해되는 경우, iv) 위 세 가지 경우 외에 다른 사람의 권리나 이익을 침해하는 경우, v) 재분배를 이유로 하는 자유의 제한, vi) 문제되는 행위로 인해 공동체의 가치가 침해되는 경우 등이 그것이다. i) ii) 유형은 자유주의적 관점에 의하여, iii) iv) v) 유형은 공리주의적 관점에 의하여, vi) 유형은 공동체주의적 관점에 의하여 주로 설명될 수 있다. 다만 자유주의적 관점에서 규제의 정당성 근거는 규제의 최대 한계로서의 의미만을 지닌다.
알고리즘 규제의 내용적 측면과 관련된 두 번째 시사점은 판단과 결정을 자동화하면서도 그 근거를 알기 어려운 알고리즘의 특성에서 비롯된다. 즉 누군가가 결정에 따른 결과에 책임을 져야 하며, 결정의 과정은 투명하고 근거는 설명 가능해야 하는 것이다. 책임성, 그리고 투명성 및 설명가능성은 그 자체로는 자유 제한의 정당화 사유가 될 수 없고 다른 정당화 사유와 관련하여 수단으로서 의미를 가질 뿐이다. 이러한 수단성으로 인해 책임성과 투명성을 확보하기 위한 규제는 자율규제나 사후규제 또는 네거티브 규제와 같은 ‘약한 규제’로 이루어지는 것이 바람직하다.
Benefits from the rapid advancement of artificial intelligence technology are perceptible in many areas, but concerns are also mounting over the adverse effects of new technology. Various discussions on the regulation of algorithms may be broken down to the principle, structure, and content of the regulation.
First, in terms of principle, the legitimacy of restriction of freedom and characteristics of the regulation of algorithm becomes an issue. The perspective of how restriction of freedom is justified varies from standpoint to standpoint, including liberal, utilitarian, and communitarian perspectives. But the priority of liberty and justice needs to be recognized. The issue of characteristics of the regulation of algorithm can be divided into two categories. First issue arise when algorithm is used by a regulator and algorithm itself performs the role of a regulator(regulation by algorithsm). In case of the former, the key is rule of law and democracy. In case of the latter, the key is how the algorithm is regulated. The next question is whether algorithm itself can be ‘the regulated’, which is essentially an issue of enforcing regulation on algorithms. It cannot be deemed at this point of time, however, that artificial intelligence is an independent entity for regulation. Therefore, the regulation of algorithms does not cause difference in terms of principle as opposed to general regulations.
Next, in terms of the structure of regulation, the question comes down to which regulation out of various structures and types of regulation is suitable for the regulation of algorithms. In the case of new industry, it is difficult to confirm the content of regulation in advance because of a high level of unpredictability and a high and extensive rate and scope of changes. Accordingly, a “flexible regulation” is needed for the regulation of new industry, such as provisional regulation, procedural regulation, self-regulation, and principle-based regulation. Algorithms, particularly the technology of artificial intelligence, share the features of new industry. As such, a desirable structure of regulation for algorithms is a flexible regulation.
Although it is difficult to predefine the content of algorithm regulation, two implications can be obtained from the recent discussion of artificial intelligence ethics in relation to the aspect of content in regulation.
First, the risk involving the utilization of algorithm may be evaluated, and standards to determine the regulatory content thereof can be formalized. That is, to classify the attributes of risk in relation to the grounds for justifiability of regulation; and thereby to decide whether to regulate and means of regulation in consideration of proportionality associated with risk when the attribute permits balancing conflicting interests (interests-balancing). This paper classified the risk into six categories. First type is a case involving the infringement of basic liberty of others. Second, to infringe the fair equality of opportunity. Third type is a case where an act in question infringes competition. Fourth type is to infringe the rights and interests of other persons which is not included in the first three types mentioned above. Fifth type is the restriction of freedom on the ground of redistribution. Last, sixth type is infringement of the community values due to an act at issue. In sum, the first and second types are explained by a liberal standpoint, from the third to the fifth by a utilitarian perspective, and the sixth by a communitarian perspective. From a liberal point of view, the ground for the justifiability of regulation only implies the maximal limit of regulation.
Second implication with regard to the content of algorithmic regulation stems from the features of algorithm that make it difficult to identify the ground for automatic judgment and decision. In other words, someone should bear the responsibility for the consequence of a decision
분석정보
연월일 | 이력구분 | 이력상세 | 등재구분 |
---|---|---|---|
2028 | 평가예정 | 재인증평가 신청대상 (재인증) | |
2022-01-01 | 평가 | 등재학술지 유지 (재인증) | KCI등재 |
2019-01-01 | 평가 | 등재학술지 유지 (계속평가) | KCI등재 |
2016-01-01 | 평가 | 등재학술지 선정 (계속평가) | KCI등재 |
2015-01-01 | 평가 | 등재후보학술지 유지 (계속평가) | KCI후보 |
2013-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | KCI후보 |
2011-01-01 | 평가 | 등재후보학술지 선정 (신규평가) | KCI후보 |
기준연도 | WOS-KCI 통합IF(2년) | KCIF(2년) | KCIF(3년) |
---|---|---|---|
2016 | 0.9 | 0.9 | 1.17 |
KCIF(4년) | KCIF(5년) | 중심성지수(3년) | 즉시성지수 |
0.89 | 0.83 | 1.29 | 0.25 |
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)