KCI등재
의료인공지능과 민사상 책임 = Medizinische künstliche Intelligenz und derer zivilrechtliche Haftung
저자
발행기관
학술지명
권호사항
발행연도
2023
작성언어
Korean
주제어
등재정보
KCI등재
자료형태
학술저널
수록면
1-32(32쪽)
제공처
인공지능에 있어서 민사책임의 문제는 어려운 여러 가지 문제를 발생시킨다. 특히 이는 인공지능의 특성과도 연결된다. 즉, 인공지능의 자율성, 예측불가능성, 설명불가능성 등의 특성은 기존의 민사책임으로는 인공지능과 관련된 책임의 문제를 해결하기가 어렵다는 문제를 발생시킨다. 우선 인공지능의 자율성은 민사책임을 인정하기 위한 배후자의 행위성의 문제와 연결된다.
인공지능은 외부적 환경에 따라서 정보를 습득하고 이를 통해서 스스로 학습하여서 계속적으로자신의 알고리즘을 변화시켜 나가기 때문에 인공지능 자체의 행위가 문제가 될 뿐 인공지능의 배후에 있는 관련자들, 즉 개발자, 제조자, 이용자와의 관련성은 적어질 수밖에는 없다. 따라서 이러한 배후자들의 행위가 최소화되는 경우에 있어서는 그들에게 책임을 묻기는 쉽지 않다. 인공지능의 예측불가능성의 특성도 민사책임에서 문제가 된다. 민사책임은 기본적으로 과실책임을 기초로 하는데 인공지능의 어떠한 작동에 대해서는 이를 사전에 예측하고 회피할 수 있는 사람을상정하는 것이 어렵고 따라서 그에 따른 과실책임을 묻는 것도 쉽지 않다. 설명불가능성의 문제는 일정한 책임을 인정하기 위해서는 사후적으로 어떠한 원인에 의해서 그러한 결과가 발생하였는지를 재구성할 수 있어야 하는데 인공지능의 경우에는 계속적으로 변화하는 알고리즘과 인공지능이 어떠한 정보를 어떻게 받아들여 작동했는지를 사후적으로 알 수가 없다는 이유로 발생한결과에 대한 원인을 사후적으로 찾아내기 어렵다는 문제가 발생한다.
의료인공지능의 경우에도 이러한 인공지능의 민사상 책임인정과 관련된 어려움들이 모두 발현되게 된다. 그러나 의료인공지능의 경우에는 의료행위라는 특수성이 존재하고, 이는 인간의 신체에 대한 행위라는 특수함이 존재하기 때문에 일반적인 인공지능의 경우와 동일하다고 볼 수는없다. 즉, 의학적 판단과 처치는 최종적으로 의료전문가인 의사에게 맡겨져 있으며, 의료인공지능을 신뢰하여서 일정한 처치를 했다고 하더라도 이를 통해서 최종적인 판단자인 의사의 책임이면책된다고 볼 수는 없다. 따라서 의료인공지능을 이용하는 상황에서도 의사에 대한 기존의 민사책임법적 구조는 크게 변화되지는 않을 것으로 생각된다. 그러나 계속적으로 의료인공지능이 발전되고 있는 추세에 비추어서 기존의 민사상 책임원리로 의료인공지능의 문제를 모두 해결할 수는 없으며 이러한 상황에서 제조물책임법이 가능한 대안으로 제시될 수 있다. 특히 의료인공지능과 관련하여서는 제조물에 소프트웨어를 포함하는 변화가 필요하며, 제조물의 하자를 추정하는 규정에 대한 변화도 필요하다고 생각된다. 특히 이 경우 우리 제조물책임법상의 제조자의 제조물에 대한 관찰 및 위험방지의무가 중요한 기능을 수행할 것으로 생각된다.
Die Frage der zivilrechtlichen Haftung bei KI wirft eine Reihe schwieriger Fragen auf. Dies hängt insbesondere mit den Merkmalen der KI wie Autonomie, Unvorhersehbarkeit und Unerklärbarkeit zusammen, die es schwierig machen, das Problem der Haftung im Zusammenhang mit der KI mit der bestehenden zivilrechtlichen Haftung zu lösen. Zunächst einmal ist die Autonomie der KI mit dem Problem der Tätigkeit des Menschen verbunden, um die zivilrechtliche Haftung zu erkennen. Da die KI Informationen aus der äußeren Umgebung gewinnt und dadurch selbst lernt und ihren Algorithmus ständig verändert, sind die Handlungen der KI selbst das Problem und weniger die relevanten Personen hinter der KI, d.h. Entwickler, Hersteller und Nutzer.
Daher ist es nicht einfach, sie in Fällen, in denen ihre Handlungen minimiert werden, zur Verantwortung zu ziehen. Die Unvorhersehbarkeit von KI ist auch ein Problem bei der zivilrechtlichen Haftung. Die zivilrechtliche Haftung basiert grundsätzlich auf Fahrlässigkeit, aber es ist schwer vorstellbar, dass jemand das Verhalten von KI im Voraus vorhersehen und vermeiden kann, so dass es nicht einfach ist, Fahrlässigkeit zu verlangen. Das Problem der Unerklärbarkeit besteht darin, dass für die Anerkennung einer bestimmten Haftung die Ursache des Ergebnisses im Nachhinein rekonstruiert werden muss. Im Falle der KI ist es jedoch schwierig, die Ursache des Ergebnisses im Nachhinein zu ermitteln, da sich der Algorithmus ständig verändert und es nichtmöglich ist, im Nachhinein zu wissen, welche Informationen er erhalten hat und wie er erarbeitet hat.
Im Falle der medizinischen KI kommen all diese Schwierigkeiten im Zusammenhang mit der Anerkennung der zivilrechtlichen Haftung von KI ebenfalls zum Ausdruck.
Bei medizinischer KI kann jedoch nicht dasselbe gelten wie bei allgemeiner KI, da eine medizinische Behandlung, die eine Einwirkung auf den menschlichen Körper darstellt, eine Besonderheit darstellt. Mit anderen Worten, die medizinische Beurteilung und Behandlung wird letztlich den Ärzten, die medizinische Experten sind, verantwortlich, und selbst wenn eine bestimmte Behandlung durch eine vertrauenswürdige medizinische KI durchgeführt wird, kann nicht davon ausgegangen werden, dass die Verantwortung des Arztes, dadurch entlastet wird. Daher ist es unwahrscheinlich, dass sich die bestehende rechtliche Struktur der Haftung für Ärzte auch in Situationen, in denen KI eingesetzt wird, wesentlich ändern wird. Angesichts der kontinuierlichen Entwicklung der KI können die bestehenden zivilrechtlichen Haftungsgrundsätze jedoch nicht alle Probleme der KI lösen, so dass das Produkthaftungsrecht in dieser Situation eine mögliche Alternative darstellt. Insbesondere im Zusammenhang mit medizinischer KI sind Änderungen erforderlich, um Software in Produkte einzubeziehen, und auch die Regeln für die Vermutung von Produktfehlern müssen geändert werden.
Insbesondere die Pflicht des Herstellers, Schäden am Produkt zu beobachten und zu verhindern, dürfte hier eine wichtige Rolle spielen.
분석정보
서지정보 내보내기(Export)
닫기소장기관 정보
닫기권호소장정보
닫기오류접수
닫기오류 접수 확인
닫기음성서비스 신청
닫기음성서비스 신청 확인
닫기이용약관
닫기학술연구정보서비스 이용약관 (2017년 1월 1일 ~ 현재 적용)
학술연구정보서비스(이하 RISS)는 정보주체의 자유와 권리 보호를 위해 「개인정보 보호법」 및 관계 법령이 정한 바를 준수하여, 적법하게 개인정보를 처리하고 안전하게 관리하고 있습니다. 이에 「개인정보 보호법」 제30조에 따라 정보주체에게 개인정보 처리에 관한 절차 및 기준을 안내하고, 이와 관련한 고충을 신속하고 원활하게 처리할 수 있도록 하기 위하여 다음과 같이 개인정보 처리방침을 수립·공개합니다.
주요 개인정보 처리 표시(라벨링)
목 차
3년
또는 회원탈퇴시까지5년
(「전자상거래 등에서의 소비자보호에 관한3년
(「전자상거래 등에서의 소비자보호에 관한2년
이상(개인정보보호위원회 : 개인정보의 안전성 확보조치 기준)개인정보파일의 명칭 | 운영근거 / 처리목적 | 개인정보파일에 기록되는 개인정보의 항목 | 보유기간 | |
---|---|---|---|---|
학술연구정보서비스 이용자 가입정보 파일 | 한국교육학술정보원법 | 필수 | ID, 비밀번호, 성명, 생년월일, 신분(직업구분), 이메일, 소속분야, 웹진메일 수신동의 여부 | 3년 또는 탈퇴시 |
선택 | 소속기관명, 소속도서관명, 학과/부서명, 학번/직원번호, 휴대전화, 주소 |
구분 | 담당자 | 연락처 |
---|---|---|
KERIS 개인정보 보호책임자 | 정보보호본부 김태우 | - 이메일 : lsy@keris.or.kr - 전화번호 : 053-714-0439 - 팩스번호 : 053-714-0195 |
KERIS 개인정보 보호담당자 | 개인정보보호부 이상엽 | |
RISS 개인정보 보호책임자 | 대학학술본부 장금연 | - 이메일 : giltizen@keris.or.kr - 전화번호 : 053-714-0149 - 팩스번호 : 053-714-0194 |
RISS 개인정보 보호담당자 | 학술진흥부 길원진 |
자동로그아웃 안내
닫기인증오류 안내
닫기귀하께서는 휴면계정 전환 후 1년동안 회원정보 수집 및 이용에 대한
재동의를 하지 않으신 관계로 개인정보가 삭제되었습니다.
(참조 : RISS 이용약관 및 개인정보처리방침)
신규회원으로 가입하여 이용 부탁 드리며, 추가 문의는 고객센터로 연락 바랍니다.
- 기존 아이디 재사용 불가
휴면계정 안내
RISS는 [표준개인정보 보호지침]에 따라 2년을 주기로 개인정보 수집·이용에 관하여 (재)동의를 받고 있으며, (재)동의를 하지 않을 경우, 휴면계정으로 전환됩니다.
(※ 휴면계정은 원문이용 및 복사/대출 서비스를 이용할 수 없습니다.)
휴면계정으로 전환된 후 1년간 회원정보 수집·이용에 대한 재동의를 하지 않을 경우, RISS에서 자동탈퇴 및 개인정보가 삭제처리 됩니다.
고객센터 1599-3122
ARS번호+1번(회원가입 및 정보수정)