KCI우수등재
인공지능 알고리듬 규제거버넌스의 전환 - 최근 미국의 알고리듬 규제와 인공지능 윤리원칙을 중심으로 -
저자
발행기관
학술지명
권호사항
발행연도
2021
작성언어
Korean
주제어
등재정보
KCI우수등재
자료형태
학술저널
발행기관 URL
수록면
375-406(32쪽)
KCI 피인용횟수
7
DOI식별코드
제공처
소장기관
그간의 인공지능 관련 규제들이 혁신기술의 진흥과 혁신으로 인한 위험의 통제라는 양단에서 균형의 조정을 통해 해법을 찾아왔다면, 현시점에서 인공지능 관련 규제는 규제강화나 규제약화의 차원에서의 논의에서 벗어나 개별 구체적인 차원에서 합리적이고 효율적인 맞춤형 규제를 고려하는 단계로 발전되어야 할 것이다. 현 단계의 인공지능 관련 혁신기술에 적절히 대응할 수 있는 규제적 균형을 찾기 위해서는 기존의 규제가 특정한 행위 유형의 폐해나 해택에 대하여 적용해왔던 암묵적인 전제들이 최근 관측되고 있거나 예측될 수 있는 특정 상황에서도 여전히 유효한 것인지를 따져보고, 특정한 규제 공백 내지 부족함을 채워줄 수 있는 맞춤형 규제를 실효적으로 적용하는 것이 필요하다.
또한 규제거버넌스의 전환이라는 관점에서 지속가능한 인공지능의 혁신을 도모하기 위해서는 혁신으로 인해 발행하고 있는 문제들을 해결할 뿐만 아니라, 발생 가능한 문제들에 대한 선제적인 대응에 대한 고려도 필요하다. 그러나 법의 외부성과 혁신의 예측불가능성은 혁신을 저해하지 않으면서 이로 인한 위험을 최소화하는 선제적인 규제대응을 현실적으로 불가능하게 하는 요인으로 작용하고 있다. 그렇지만 이러한 선제적 규제대응이 불가능한 것만은 아니다. 유럽연합의 ‘일반정보보호법’(이하 GDPR) 제22조에서 정보주체(평가대상)에게 사후적인 ‘설명요구권’(right to explanation)과 ‘개입요구권’(right to human-in-the-loope)을 부여하고, 이에 대응하기 위해 Inkedin이 당사의 알고리듬에 데이터 처리자를 사후 식별 가능하도록 하는 기술을 개발 적용한 사례는 혁신으로 인한 위험을 예측하고 규제적 대응을 통해 이를 통제할 수 있다는 가능성을 보여준다. 같은 맥락에서, 행정부가 인공지능 윤리원칙으로 알고리듬의 투명성, 책무성 등을 선제적으로 선언하는 것은 알고리듬의 기술 개발자들에게 규제의 방향성을 사전적으로 인식시키고, 기술개발의 단계에서부터 알고리듬의 불투명성이나 데이터의 편향성으로 인한 위험을 최소화할 수 있는 방향으로 기술을 전개하도록 유도할 수 있다.
물론 한편으로 인공지능 윤리원칙으로 인공지능의 공공성, 책무성, 통제성, 투명성 등의 원칙을 선언하는 비규제적 접근방식은 집행력이 없고 처벌에 대한 강제규정이 없기 때문에 규제의 실효성을 담보할 수 없다는 비판을 받을 수 있다. 또, 다른 한편으로는 이와 같은 인공지능 윤리원칙의 선언은 명시적인 조항이 아니더라도 이러한 윤리준칙들이 각 법령에 산재한 설명의무나 투명성 조항에 기해 알고리듬의 투명성을 요구할 수도 있다는 측면에서 행정부의 지나친 관련 지침이나 가이드라인의 발표가 과잉규제로 인한 중복규제, 규제충돌이라는 문제를 야기 시킬 수 있다는 비판을 받을 수도 있다. 그러나 이와 같은 인공지능 관련 윤리준칙의 선언이나 가이드라인의 발표들은 대부분 입법으로 발전하지 않고 강제력 없는 지침으로 머무는 경향이 높기 때문에 규제과잉이나 규제충돌의 문제를 심각하게 야기하지는 않는 반면, 기업들에게 자율규제의 방향성을 제시해 주어 일정부분 구속력을 발휘하면서 혁신의 저해를 최소화하는 규제수단으로 적용될 수 있다는 장점이 있다. 따라서 다양한 스펙트럼을 가진 인공지능 기술이 여러 분야에서 각기 다른 규제 이슈를 가지고 상용화되고 있고 기술혁신의 방향을 단정적으로 예단할 수 없는 현실을 감안할 때, 먼저 윤리원칙의 선언과 같은 다양한 방식으로 규제의 방향성을 제시하여 최소한의 위험을 통제하고, 관련 기술과 현장에 대한 정확한 이해를 축적한 후 점진적으로 필요한 분야에서만 규제를 강화하는 방식의 규제거버넌스 전환이 필요하다.
이에, 본고에서는 지속 가능한 혁신을 위한 규제거버넌스의 전환이라는 측면에서 인공지능 알고리듬 규제에서 다양한 직 간접적 규제수단을 적용하고 있는 최신 미국의 사례를 통해 혁신에 대응하기 위한 다양한 방식의 규제수단들과 이에 따른 규제거버넌스 변화의 필요성을 논의하였다. 그간의 관련 선행연구들에서는 인공지능과 법에 관한 포괄적인 논의를 바탕으로 주요 관련국들의 규제동향이 연구되어 왔다면, 본고에서는 주요국들의 인공지능 규제 전반을 포괄하기 보다는, 인공지능 기술을 선도하고 있는 미국의 연방행정부를 대상으로 2016년 이후의 최근 규제사례와 정책방향에 대하여 좀 더 밀도 있게 분석하는 것에 의미를 두었다.
The problems of artificial intelligence and law, which have been sought by both balance and coordination of innovative technology promotion and regulatory control of AI algorithms, should now be developed into a rational and efficient regulation on individual specific issues, not in terms of regulation strengthening or deregulation. In other words, it is necessary to effectively apply customized regulations that can fill specific regulatory gaps or deficiencies to determine whether the implicit assumptions that existing regulations have applied to certain types of harm or harm are still valid in certain situations observed or predicted today.
In order to innovate sustainable artificial intelligence in terms of a shift in regulatory paradigm, not only do we need to solve problems caused by innovation, but also preemptive responses to possible problems. However, finding preemptive regulatory instruments that minimize the risk of innovation without hindering innovation due to the externalities of the law and the unpredictability of innovation is a very challenging task. An example of how it is not impossible to predict foreseeable risks and direct innovation through regulation is that the European Union"s “GDPR” authorized information subjects to explain and counter-argument, and Inkedin developed and applied technology to enable data processors to be identified post-mortem in our algorithms. In the same vein, the administration"s preemptive declaration of the explainability or accountability of the algorithm under artificial intelligence ethics leads the developers of the algorithm to recognize the direction of regulation and to deploy the technology in a direction that minimizes the risk of bias and opacity.
Of course, non-regulatory approaches such as declaring artificial intelligence ethical principles or setting relevant standards can be criticized for their effectiveness because they are unenforceable and have no enforcement regulations. However, while only a few of these guidelines are developed into laws and are mostly non-forced, they are not as serious as feared, they can be used as regulatory means to minimize disruption to innovation while providing a direction for companies. Therefore, since artificial intelligence with diverse spectra is commercialized with different regulatory issues in different fields and the direction of innovation cannot be predicted, a regulatory approach is needed to establish regulatory orientation in this way and gradually strengthen it based on accurate understanding of relevant technologies and sites.
Thus, this paper discusses the changes in regulatory means to respond to innovation through the latest US examples applying various regulatory and non-regulatory means in AI algorithm regulation in terms of the shift in regulatory paradigm for sustainable innovation and presents the direction of regulatory paradigm change at this point. In the past related prior studies, regulatory trends in major related countries have been studied based on comprehensive discussions on artificial intelligence and law. However, rather than covering the overall AI regulation of major countries, this paper meant a more detailed and dense analysis of recent regulatory cases and policy directions since 2017 for the leading U.S. administration of artificial intelligence-leading administration.
분석정보
연월일 | 이력구분 | 이력상세 | 등재구분 |
---|---|---|---|
2022 | 평가예정 | 계속평가 신청대상 (등재유지) | |
2017-01-01 | 평가 | 우수등재학술지 선정 (계속평가) | |
2013-01-01 | 평가 | 등재학술지 유지 (등재유지) | KCI등재 |
2010-01-01 | 평가 | 등재학술지 유지 (등재유지) | KCI등재 |
2007-01-01 | 평가 | 등재학술지 선정 (등재후보2차) | KCI등재 |
2006-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | KCI후보 |
2005-01-01 | 평가 | 등재후보학술지 유지 (등재후보2차) | KCI후보 |
2004-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | KCI후보 |
2003-01-01 | 평가 | 등재후보학술지 유지 (등재후보1차) | KCI후보 |
2002-01-01 | 평가 | 등재후보학술지 유지 (등재후보1차) | KCI후보 |
2000-01-01 | 평가 | 등재후보학술지 선정 (신규평가) | KCI후보 |
기준연도 | WOS-KCI 통합IF(2년) | KCIF(2년) | KCIF(3년) |
---|---|---|---|
2016 | 1.08 | 1.08 | 1.06 |
KCIF(4년) | KCIF(5년) | 중심성지수(3년) | 즉시성지수 |
1.04 | 0.96 | 1.025 | 0.31 |
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)