"책임법"의 두 판 사이의 차이

해시넷
이동: 둘러보기, 검색
(법적·윤리적 책임)
6번째 줄: 6번째 줄:
  
 
== 특징 ==
 
== 특징 ==
=== 현재 인공지능의 법적인 이슈 ===
+
=== 법적인 이슈 ===
 
현재 인공지능과 관련한 법적 이슈들 중에 핵심이 되는 것은 다음과 같다.
 
현재 인공지능과 관련한 법적 이슈들 중에 핵심이 되는 것은 다음과 같다.
 
# 인공지능의 오류나 어쩔 수 없는 상황으로 인한 사고 발생 시 법적 책임 문제
 
# 인공지능의 오류나 어쩔 수 없는 상황으로 인한 사고 발생 시 법적 책임 문제
28번째 줄: 28번째 줄:
 
: 인공지능로봇이 소유주의 말을 따라서사람을 치거나 물건을 파손하거나 악용되고 사고를 일으키는 등
 
: 인공지능로봇이 소유주의 말을 따라서사람을 치거나 물건을 파손하거나 악용되고 사고를 일으키는 등
 
:문제가 발생했을 때 책임은 언제나 소유주가 지는 것인지 아니면 그 명령을 따르도록 알고리즘을 설계한 제작자가 지는지를 가리기 쉽지 않을 것이다. 제조사나 설계자의 선택에 따라서 로봇은 자율적으로 행동할 여지가 있는데 그렇다면 로봇의 인공지능 시스템을 도덕적 행위자(AMA)로 의제하고 로봇에게 책임을 물어야 할것인지에 대한 논의가 되고있다.<ref>인공지능 시대의 법적·윤리적 쟁점 과학기술정책연구원- https://www.stepi.re.kr/</ref>
 
:문제가 발생했을 때 책임은 언제나 소유주가 지는 것인지 아니면 그 명령을 따르도록 알고리즘을 설계한 제작자가 지는지를 가리기 쉽지 않을 것이다. 제조사나 설계자의 선택에 따라서 로봇은 자율적으로 행동할 여지가 있는데 그렇다면 로봇의 인공지능 시스템을 도덕적 행위자(AMA)로 의제하고 로봇에게 책임을 물어야 할것인지에 대한 논의가 되고있다.<ref>인공지능 시대의 법적·윤리적 쟁점 과학기술정책연구원- https://www.stepi.re.kr/</ref>
 +
 +
=== 윤리적 이슈 ===
 +
인공지능 기술의 발전이 여러 영역에서 좋은 성과를 보이면서, 다양한 분야에서 활용되고 있다. 이와 동시에 개발에 활용된 데이터의 부족함 혹은 편향성이 내재된다거나, 사용 알고리즘 자체에 왜곡, 편향이 내포된다거나 또는 기술 자체의 부족함으로 인해 예상하지 못한 사회적, 윤리적 이슈가 발생하고 있으며 혹은 발생가능성을 보이고 있다.<ref name="국민권익">인공지능 윤리의 주요 이슈와 기업의 대응 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html</ref>
 +
 +
대표적으로 교통안전에 대해 등장하는 논리 이슈는 트롤리 딜레마’이다. 성인과 어린이를 태우고 가던 자율주행차가 전방에서 보행신호를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때, 그대로 직진해서 노인들을 죽게 할 것인지 아니면 방향을 틀어서 노인들을 피하는 대신 차가 장애물을 부딪쳐서 승객 세 명을 죽게 할 것인지를 묻는 질문이다. 이러한 이슈때문에 인공지능에 대한 윤리적 대응체계를 만들기 위해 총론적 담론 수준에서 벗어나 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응을 해야 한다고 지적이 제기되고있다.<ref>이은광 기자,〈[http://www.dailybizon.com/news/articleView.html?idxno=12748 4차 산업혁명, AI 윤리 문제와 대응안]〉, 《데일리비즈온》, 2019-03-14 </ref>
 +
 +
==== 사례 ====
 +
* 구글의 이미지 인식 기술의 불완전성이 흑인 여성을 고릴라로 인식하거나, 위챗이 번역 과정에서 니그로라는 단어를 사용하고, 마이크로소프트의 테이 챗봇이 사용 과정에서 인종차별자나 혐오주의자의 표현을 사용하게 됐다. 이것은 알고리즘의 불완전성 또는 데이터의 부족, 잘못된 학습 등의 결과이다.
 +
* MIT 미디어 랩 조이 부올람위니(Joy Buolamwini)는 2018년 2월 그녀가 참여하는 젠더 쉐이즈(Gender Shades) 프로젝트를 통해서 마이크로소프트, IBM, 중국의 메그비의 페이스++ 기술을 비교했다. 그 결과, 피부 빛이 검을수록 인식 에러율이 크게 증가하는 것을 발견했다. 특히 피부색이 검은 여성의 경우에는 거의 35%나 오류가 발생했다.<ref name="국민권익"></ref>
 +
  
 
{{각주}}
 
{{각주}}
35번째 줄: 45번째 줄:
 
* 조진서,〈[https://dbr.donga.com/article/view/1206/article_no/8183/ac/magazine 인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다]〉, 《동아일보》
 
* 조진서,〈[https://dbr.donga.com/article/view/1206/article_no/8183/ac/magazine 인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다]〉, 《동아일보》
 
* 인공지능 시대의 법적·윤리적 쟁점 과학기술정책연구원- https://www.stepi.re.kr/
 
* 인공지능 시대의 법적·윤리적 쟁점 과학기술정책연구원- https://www.stepi.re.kr/
 +
* 인공지능 윤리의 주요 이슈와 기업의 대응 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html
 +
* 이은광 기자,〈[http://www.dailybizon.com/news/articleView.html?idxno=12748 4차 산업혁명, AI 윤리 문제와 대응안]〉, 《데일리비즈온》, 2019-03-14
 +
 
==같이 보기==
 
==같이 보기==
  
 
{{인공지능 기술}}
 
{{인공지능 기술}}

2020년 7월 21일 (화) 16:49 판

인공지능 기술이 발전함에 따라 인공지능의 책임법에 대한 목소리가 커지고 있다. 법적 책임으로는 민사상 책임과 형사상 책임이 있다. 이 책임을 이들에게 어떻게 적용시킬지에 대한 논의가 진행중이다.

개요

인공지능은 인간의 개입 없이 판단하고 행동할 수 있다. 이것은 법적으로 문제를 일으킬 수 있으며, 인간의 개입 없이 발생한 손해에 대한 책임을 묻기 위해서 인공지능 관련 책임법이 필요하다. 현행법상으로 약인공지능은 제조물 책임법의 영향을 받는다. 제조물 책임법은 제조물의 결함으로 발생한 손해로부터 피해자를 보호하기 위해 제정된 법으로, 물품을 제조하거나 가공한 자에게 손해배상의 의무가 주어진다. 무인자동차가 사고를 내면 무인자동차의 제작자가 법적 책임을 진다는 것이다. 하지만 미래에 다가올 인간의 지능에 더 유사한 더 높은 능력과 자질을 갖춘 인공지능에게도 범죄의 금지에 대해서 알고 있지 않는 무죄의 대행자로 취급해야 하는지 논란이 제기되고 있다. 강한 인공지능에 다가갈수록 인공지능 로봇의 활동으로 인한 사고발생에 대한 피해가 폭넓을 것이다. 그런 행동에 대비하여 새로운 형사정책이 필요하다.[1]

특징

법적인 이슈

현재 인공지능과 관련한 법적 이슈들 중에 핵심이 되는 것은 다음과 같다.

  1. 인공지능의 오류나 어쩔 수 없는 상황으로 인한 사고 발생 시 법적 책임 문제
  2. 인공지능 그 자체의 법적 지위 문제(사람처럼 자체적인 판단력을 가지고 행동할 시)[2]

법적·윤리적 책임

현재 인공지능 알고리즘은 주어진 정보를 판단하고 사안마다 다르게 대응한다는 점에서 제조물책임법을 적용하기에는 무리가 있어보인다. 라이언 칼로(Ryan Calo)는 로봇공학의 발전이 기존의 법률과 규범체계의 긴장을 증가시키므로 인공지능 등장으로 새롭게 문제되는 법률관계를 조정할 수 있는 로봇 법정책이 필요하다고 말했다.

인공지능 기술의 활용이 점점 더 커지면서 거론되는 법적·윤리적 쟁점을 열거하자면 다음과 같다.

  • 자율주행 차량이 사고를 냈을 때의 배상책임과 처벌
  • 자동적 주식거래 시스템에 대한 규제
  • 자율주행 차량의 사고 등 알고리즘의 실수로 불법행위나 피해가 발행했을 때의 법적 처리
  • 인공지능에 의한 질병의 검진과 로봇수술 허용 여부
  • 사람의 지시에 따라 활동하는 원격로봇에 법인격을 의제할 것인가
  • 로봇을 도덕적 행위자로 볼 수 있는가
  • 알고리즘의 편향이 누군가에게 피해를 주었을 때의 처리와 해결책은 어떻게 할 것인가

인공지능의 법적 지위

  • 인공지능 로봇을 자율적 행위자로 보아야 하는가
인공지능로봇이 소유주의 말을 따라서사람을 치거나 물건을 파손하거나 악용되고 사고를 일으키는 등
문제가 발생했을 때 책임은 언제나 소유주가 지는 것인지 아니면 그 명령을 따르도록 알고리즘을 설계한 제작자가 지는지를 가리기 쉽지 않을 것이다. 제조사나 설계자의 선택에 따라서 로봇은 자율적으로 행동할 여지가 있는데 그렇다면 로봇의 인공지능 시스템을 도덕적 행위자(AMA)로 의제하고 로봇에게 책임을 물어야 할것인지에 대한 논의가 되고있다.[3]

윤리적 이슈

인공지능 기술의 발전이 여러 영역에서 좋은 성과를 보이면서, 다양한 분야에서 활용되고 있다. 이와 동시에 개발에 활용된 데이터의 부족함 혹은 편향성이 내재된다거나, 사용 알고리즘 자체에 왜곡, 편향이 내포된다거나 또는 기술 자체의 부족함으로 인해 예상하지 못한 사회적, 윤리적 이슈가 발생하고 있으며 혹은 발생가능성을 보이고 있다.[4]

대표적으로 교통안전에 대해 등장하는 논리 이슈는 트롤리 딜레마’이다. 성인과 어린이를 태우고 가던 자율주행차가 전방에서 보행신호를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때, 그대로 직진해서 노인들을 죽게 할 것인지 아니면 방향을 틀어서 노인들을 피하는 대신 차가 장애물을 부딪쳐서 승객 세 명을 죽게 할 것인지를 묻는 질문이다. 이러한 이슈때문에 인공지능에 대한 윤리적 대응체계를 만들기 위해 총론적 담론 수준에서 벗어나 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응을 해야 한다고 지적이 제기되고있다.[5]

사례

  • 구글의 이미지 인식 기술의 불완전성이 흑인 여성을 고릴라로 인식하거나, 위챗이 번역 과정에서 니그로라는 단어를 사용하고, 마이크로소프트의 테이 챗봇이 사용 과정에서 인종차별자나 혐오주의자의 표현을 사용하게 됐다. 이것은 알고리즘의 불완전성 또는 데이터의 부족, 잘못된 학습 등의 결과이다.
  • MIT 미디어 랩 조이 부올람위니(Joy Buolamwini)는 2018년 2월 그녀가 참여하는 젠더 쉐이즈(Gender Shades) 프로젝트를 통해서 마이크로소프트, IBM, 중국의 메그비의 페이스++ 기술을 비교했다. 그 결과, 피부 빛이 검을수록 인식 에러율이 크게 증가하는 것을 발견했다. 특히 피부색이 검은 여성의 경우에는 거의 35%나 오류가 발생했다.[4]


각주

  1. 코싸인,〈인공지능〉, 《브런치》, 2017-07-28
  2. 조진서,〈인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다〉, 《동아일보》, 2017-07-01
  3. 인공지능 시대의 법적·윤리적 쟁점 과학기술정책연구원- https://www.stepi.re.kr/
  4. 4.0 4.1 인공지능 윤리의 주요 이슈와 기업의 대응 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html
  5. 이은광 기자,〈4차 산업혁명, AI 윤리 문제와 대응안〉, 《데일리비즈온》, 2019-03-14

참고자료

같이 보기