KCI등재
인공지능의 목소리, 규제할 수 있을까 ―젠더 편향 해소를 위한 제안― = Regulating AI Voices ―Exploring Solutions to Gender Bias―
저자
김주현 (이화여자대학교 법학연구소 연구원)
발행기관
학술지명
권호사항
발행연도
2023
작성언어
Korean
주제어
등재정보
KCI등재
자료형태
학술저널
수록면
167-204(38쪽)
제공처
본 논문은 그동안 제시된 인공지능의 젠더 편향 해결 방안이 효과적인지, 그 방향성이 타당한지에 대한 물음을 탐구하고자 한다. 우리에게 잘 알려진 인공지능 기술인 디지털 어시스턴트는 기본적으로 여성으로 설정되었다. 글로벌 기술회사는 남성 소비자를 중심으로 디지털 어시스턴트의 목소리를 여성으로 설정하여 개발하고 보급하였다. 그런데 문제는 여성화된 디지털 어시스턴트가 기존의 젠더 불평등을 유지할 뿐 아니라 확산시킨다는 것이다. 디지털 어시스턴트의 목소리는 여성이 친절하고 유순하며 순종적이라는 젠더 고정관념을 강화하고, 성적 괴롭힘에 대한 잘못된 태도를 양산하였다. 그러나 이러한 디지털 어시스턴트의 여성화는 기술회사가 압도적으로 남성 인력에 의해 구성되었기 때문인데, 다른 전문 분야와 비교할 때, 인공지능 기술 분야에서 젠더 격차는 심각한 편이다.
이러한 문제를 해결하기 위해 다방면의 국제적, 국내적 노력이 있었다. 기본적으로 여성 음성으로 설정되는 관행을 없애고, 젠더 중립적인 디지털 어시스턴트 개발을 모색하는 방안을 제시하였고, 디지털 어시스턴트의 젠더 편향으로 강화되는 젠더 불평등을 개선하기 위해 젠더에 민감한 데이터를 수집하고 알고리즘을 설계하거나 프로그래밍해야 한다는 제안을 하였다. 기술 분야의 젠더 격차를 해소하기 위해 여학생들의 이공계 진출을 지원하는 정책과 법제도 시행하였다. 하지만, 이러한 방안으로 역사적으로 뿌리 깊게 지속된 젠더 불평등이 해결되기란 쉽지 않았다. 특히 인공지능의 젠더 편향을 해결하는 기존의 방안은 다소 한계에 부딪히고 있는데, 여성 목소리를 기본값으로 하지 않기 위해 남성 옵션을 추가했지만, 성별 이분법적 고정관념을 드러내거나 성 정체성의 다양성을 고려하지 못한 점이 있다. 남성 중심의 기술회사에서 젠더 중립적인 디지털 어시스턴트의 개발이 가능한지도 의문이며, 젠더에 민감한 데이터와 알고리즘도 이를 설계하거나 감사하는 주체가 중요한데, 이에 대한 구체적인 논의가 이루어지지 않아 한계를 지닌다. 기술 분야의 여성 참여 정책과 법제가 시행되고 있음에도 여전히 인공지능 기술 분야에서 여성의 과소 대표성이 심각한 것도 문제이다.
따라서 이러한 한계를 극복하고 효과적인 인공지능의 젠더 편향 해소 방안을 마련하기 위해 젠더 권력의 사회적, 정치적 맥락을 고려할 필요가 있다. 남성의 관점과 경험이 보편적인 남성 중심 사회에서는 인공지능 젠더 편향에 대한 문제의식이 부족할 수 있다. 인공지능 젠더 편향에 대한 사회적 인식 제고가 필요하며, 이를 위해서는 인공지능 젠더 편향에 대한 교육과 연구가 필요하다. 또한 인공지능의 젠더 편향을 해소하기 위한 구체적인 법적 지원 방안을 마련해야 한다. 젠더에 민감한 데이터를 수집하고 알고리즘을 설계하기 위해서는 젠더 문제를 파악하고 해결책을 제시할 수 있는 법적 지원 기구가 필요하며, 이는 기술 분야의 적극적 평등실현조치를 통해 기술-젠더 융합 전문가의 양성을 바탕으로 추진되어야 할 것이다.
This article investigates the effectiveness of proposed solutions addressing gender bias in AI and evaluates their appropriateness. Globa tech companies have developed and marketed a digital assistant with a female voice, targeting male consumers. However, the issue lies in feminized digital assistants not merely perpetuating existing gender inequalities but exacerbating them. These digital assistant voices reinforce gender stereotypes, portraying women as kind, docile, and submissive, while fostering false attitudes about sexual harassment. This inclination towards female digital assistants stems from the overwhelmingly male workforce in tech companies, highlighting a severe gender divide within AI technology compared to other professional fields.
Numerous international and national initiatives have aimed to address this issue. Proposals have emerged to eliminate defaulting to female voices, explore gender-neutral digital assistants, and collect gender-sensitive data. Efforts have also focused on designing algorithms to mitigate gender inequalities reinforced by biases in digital assistants. In the education sector, policies and legislation bolster girls’ entry into science and technology, addressing gender imbalances within the tech field. However, these measures struggle to rectify deeply entrenched gender inequalities. Specifically, existing measures tackling gender bias in AI have limitations. Some introduce a male option to avoid defaulting to a female voice but fail to confront gender binary stereotypes or consider diverse gender identities. The creation of gender-neutral digital assistants within male-dominated tech companies raises questions. Additionally, discussions about the individuals responsible for designing or auditing gender-sensitive data and algorithms are absent, hampering their collection and programming. Despite policies and legislation aimed at enhancing women’s participation in technology, a significant under-representation of women persists within the field of AI technology.
To effectively address gender bias in AI, it is required to devise solutions that consider the social and political contexts of gendered power. In a predominantly male-dominated society where male perspectives and experiences prevail, awareness of gender bias in AI might be lacking. Raising social consciousness about gender bias in AI necessitates educational initiatives and dedicated research. Specific legal support should also be provided to help address gender bias in AI. Developing gender-sensitive data collection methods and algorithmic designs requires a legal support institute focused on identifying and proposing solutions to gender-related issues. Such endeavors require training experts at the intersection of technology and gender through affirmative action.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)