검수요청.png검수요청.png

"책임법"의 두 판 사이의 차이

해시넷
이동: 둘러보기, 검색
잔글
잔글
49번째 줄: 49번째 줄:
 
* MIT 미디어 [[랩 조이 부올람위니]](Joy Buolamwini)는 2018년 2월 그녀가 참여하는 젠더 쉐이즈(Gender Shades) 프로젝트를 통해서 마이크로소프트, [[IBM]], [[중국]]의 메그비의 페이스++ 기술을 비교했다. 그 결과, 피부 빛이 검을수록 인식 에러율이 크게 증가하는 것을 발견했다. 특히 피부색이 검은 여성의 경우에는 거의 35%나 오류가 발생했다.<ref name="국민권익"></ref>
 
* MIT 미디어 [[랩 조이 부올람위니]](Joy Buolamwini)는 2018년 2월 그녀가 참여하는 젠더 쉐이즈(Gender Shades) 프로젝트를 통해서 마이크로소프트, [[IBM]], [[중국]]의 메그비의 페이스++ 기술을 비교했다. 그 결과, 피부 빛이 검을수록 인식 에러율이 크게 증가하는 것을 발견했다. 특히 피부색이 검은 여성의 경우에는 거의 35%나 오류가 발생했다.<ref name="국민권익"></ref>
 
* 전기차 업체 [[테슬라]]는 인공지능 자율주행 자동차 사고의 책임을 운전자에게 돌렸다. 테슬라의 자율주행 차량이 고속도로 중앙분리대를 들이받았고, 운전자는 사망했다. 테슬라는 자율주행모드라도 운전자는 운전대를 잡아야 한다고 말했고, 그 운전자는 그러지 않았다고 주장했다. 그러면서도 테슬라는 자율주행 시스템이 오류가 난 이유는 공개하지 않았다. 이는 인공지능을 활용한 신기술에 대한 윤리의식과 논리의 부재가 기업에 대한 시장의 불신으로 이어졌다. <ref>인공지능의 역습 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html</ref>  
 
* 전기차 업체 [[테슬라]]는 인공지능 자율주행 자동차 사고의 책임을 운전자에게 돌렸다. 테슬라의 자율주행 차량이 고속도로 중앙분리대를 들이받았고, 운전자는 사망했다. 테슬라는 자율주행모드라도 운전자는 운전대를 잡아야 한다고 말했고, 그 운전자는 그러지 않았다고 주장했다. 그러면서도 테슬라는 자율주행 시스템이 오류가 난 이유는 공개하지 않았다. 이는 인공지능을 활용한 신기술에 대한 윤리의식과 논리의 부재가 기업에 대한 시장의 불신으로 이어졌다. <ref>인공지능의 역습 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html</ref>  
 
  
 
{{각주}}
 
{{각주}}
61번째 줄: 60번째 줄:
 
* 이은광 기자,〈[http://www.dailybizon.com/news/articleView.html?idxno=12748 4차 산업혁명, AI 윤리 문제와 대응안]〉, 《데일리비즈온》, 2019-03-14
 
* 이은광 기자,〈[http://www.dailybizon.com/news/articleView.html?idxno=12748 4차 산업혁명, AI 윤리 문제와 대응안]〉, 《데일리비즈온》, 2019-03-14
 
* 인공지능의 역습 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html
 
* 인공지능의 역습 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html
 
  
 
==같이 보기==
 
==같이 보기==

2020년 7월 22일 (수) 12:58 판

책임법은 결함으로 인해 발생한 생명·신체의 손상 또는 재산상의 손해에 대하여 무과실책임의 손해배상 의무를 지우고 있는 법률이다. 인공지능 기술이 발전함에 따라 인공지능의 책임법에 대한 필요성이 나타난다. 법적 책임으로는 민사상 책임형사상 책임이 있다. 이 책임을 이들에게 어떻게 적용할지에 대한 논의가 많다. 현행법상으로 자율주행 자동차 같은 약인공지능제조물 책임법의 영향을 받는다.

개요

책임법은 결함으로 인해 발생한 생명·신체의 손상 또는 재산상의 손해에 대하여 무과실책임의 손해배상 의무를 지우고 있는 법률이다. 인공지능의 동작과 행동은 학습 및 의사결정을 지휘하는 알고리즘이 알려지더라도 모든 상황을 완전히 예측할 수는 없다. 민사책임은 일반적으로 동작이나 행동이 예측될 때에만 사용자, 생산자, 프로그래머 등이 그에 대한 책임을 진다. 만일 인공지능을 통해 악의적 인 알고리즘을 프로그래밍하거나 가용 되는 데이터 세트에 영향을 주어 시스템을 손상시키는 등 인공지능을 통해 의도적으로 타인에게 손해를 입힐 경우에는 그에 대한 책임 부여는 비교적 간단하다. 그러나 인공지능의 동작과 행동은 예측할 수가 없어 인공지능에 의한 피해에 대해서 아무런 책임을 물을 수 없으며, 그 결과 책임법에 공백이 생길 수 있다.[1]

인공지능은 인간의 개입 없이 판단하고 행동할 수 있다. 이것은 법적으로 문제를 일으킬 수 있으며, 인간의 개입 없이 발생한 손해에 대한 책임을 묻기 위해서는 인공지능 관련 책임법이 필요하다. 현행법상으로 약인공지능제조물 책임법의 영향을 받는다. 제조물 책임법은 제조물의 결함으로 발생한 손해로부터 피해자를 보호하기 위해 제정된 법으로, 물품을 제조하거나 가공한 자에게 손해배상의 의무가 주어진다. 무인자동차가 사고를 내면 무인자동차의 제작자가 법적 책임을 진다는 것이다. 하지만 미래에 다가올 인간의 지능에 더 유사한 더 높은 능력과 자질을 갖춘 인공지능에게도 범죄의 금지에 대해서 알고 있지 않는 무죄의 대행자로 취급해야 하는지 논란이 제기되고 있다. 강한 인공지능에 다가갈수록 인공지능 로봇의 활동으로 인한 사고 발생에 대한 피해가 폭넓을 것이다. 그런 행동에 대비하여 새로운 형사정책이 필요하다.[2]

특징

제조물책임법

제조물책임법은 책임성립 요건으로 ‘결함’을 들고 있으며, 이는‘제조상의 결함’, ‘설계상의 결함’, ‘표시상의 결함’으로 구분할 수 있다.

  1. ‘제조상의 결함’은 제조업자가 제조물에 대하여 제조상·가공 상의 주의의무를 이행하였는지의 여부에 관계없이 제조물이 원래 의도한 설계와 다르게 제조·가공됨으로써 안전하지 못하게 된 경우를 말한다. 인공지능의 경우 애초에 의도한 설계대로 인공지능을 제조하였다고 하더라도 인공지능의 기계학습으로 인하여 제조자가 의도하지 않은 손해를 야기할 수 있다. 이 경우 현행 제조물책임법으로는 그 손해를 규율할 수 없다.
  2. ‘설계상의 결함’이란 제조업자가 합리적인 대체설계(代替設計)를 채용하였더라면 피해나 위험을 줄이거나 피할 수 있었음에도 불구하고 대체 설계를 채용하지 아니하여 해당 제조물이 안전하지 못하게 된 경우를 말한다(제2조 제2호 나목). 인공지능의 경우 수많은 컴포넌트로 구성된 인공지능 시스템의 특성으로 인하여 대체설계가 가능하지만 어떤 컴퍼넌트가 설계단계에서 인공지능 시스템에 사용될 것인지를 예견할 수 없기 때문에 설계상의 결함으로 판단하기 어렵다. 특히 현재로서는 최선의 기술기준에 의하더라도 설계상 불가피한 오류가 발생할 수 있으므로 대체설계의 결함으로 보기 어렵다.
  3. ‘표시상의 결함’이란 제조업자가 합리적인 설명・지시・경고 또는 그 밖의 표시를 하였더라면 해당 제조물에 의하여 발생할 수 있는 피해나 위험을 줄이거나 피할 수 있었음에도 불구하고 이를 하지 아니한 경우를 말한다(제2조 제2호 다목). 표시상의 결함의 판단기준으로 가장 대표적인 것은 합리적인 설명・지시・경고 기타의 표시를 들 수 있으며, 합리적인 표시 여부를 판단하는 경우에도 위험-효용기준이 적용된다고 한다. 하지만 인공지능의 제조업자가 알고리즘에 결함이 없는 인공지능을 개발하였고, 또한 인공지능의 기계학습으로 인하여 애초에 예견할 수 없었던 피해가 발행한 경우에 인공지능의 제조업자에게 표시상의 결함을 묻기 어렵다.[1]

논란

법적 이슈

인공지능과 관련한 법적 이슈들 중에 핵심이 되는 것은 다음과 같다.

  1. 인공지능의 오류나 어쩔 수 없는 상황으로 인한 사고 발생 시 법적 책임 문제
  2. 인공지능 그 자체의 법적 지위 문제(사람처럼 자체적인 판단력을 가지고 행동할 시)[3]

법적·윤리적 책임

현재 인공지능 알고리즘은 주어진 정보를 판단하고 사안마다 다르게 대응한다는 점에서 제조물책임법을 적용하기에는 무리가 있어 보인다. 라이언 칼로(Ryan Calo)는 로봇공학의 발전이 기존의 법률과 규범체계의 긴장을 증가시키므로 인공지능 등장으로 새롭게 문제되는 법률관계를 조정할 수 있는 로봇법 정책이 필요하다고 말했다.

인공지능 기술의 활용이 점점 더 커지면서 거론되는 법적·윤리적 쟁점을 열거하자면 다음과 같다.

  • 자율주행 차량이 사고를 냈을 때의 배상책임과 처벌
  • 자동적 주식거래 시스템에 대한 규제
  • 자율주행 차량의 사고 등 알고리즘의 실수로 불법행위나 피해가 발행했을 때의 법적 처리
  • 인공지능에 의한 질병의 검진과 로봇수술 허용 여부
  • 사람의 지시에 따라 활동하는 원격로봇에 법인격을 의제할 것인가
  • 로봇을 도덕적 행위자로 볼 수 있는가
  • 알고리즘의 편향이 누군가에게 피해를 주었을 때의 처리와 해결책은 어떻게 할 것인가

인공지능의 법적 지위

  • 인공지능 로봇을 자율적 행위자로 보아야 하는가
인공지능로봇이 소유주의 말을 따라서사람을 치거나 물건을 파손하거나 악용되고 사고를 일으키는 등
문제가 발생했을 때 책임은 언제나 소유주가 지는 것인지 아니면 그 명령을 따르도록 알고리즘을 설계한 제작자가 지는지를 가리기 쉽지 않다. 제조사나 설계자의 선택에 따라서 로봇은 자율적으로 행동할 여지가 있는데 그렇다면 로봇의 인공지능 시스템을 도덕적 행위자(AMA)로 의제하고 로봇에게 책임을 물어야 할 것인지에 대한 논의가 많아졌다.[4]

윤리적 이슈

인공지능 기술의 발전이 여러 영역에서 좋은 성과를 보이면서, 다양한 분야에서 활용되고 있다. 이와 동시에 개발에 활용된 데이터의 부족함 혹은 편향성이 내재된다거나, 사용 알고리즘 자체에 왜곡, 편향이 내포된다거나 또는 기술 자체의 부족함으로 인해 예상하지 못한 사회적, 윤리적 이슈가 발생하고 있으며 혹은 발생 가능성이 보인다.[5]

대표적으로 교통안전에 대해 등장하는 논리 이슈는 '트롤리 딜레마'이다. 성인과 어린이를 태우고 가던 자율주행 자동차가 전방에서 보행 신호를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때, 그대로 직진해서 노인들을 죽게 할 것인지 아니면 방향을 틀어서 노인들을 피하는 대신 차가 장애물을 부딪쳐서 승객 세 명을 죽게 할 것인지를 묻는 질문이다. 이러한 이슈 때문에 인공지능에 대한 윤리적 대응 체계를 만들기 위해 총론적 담론 수준에서 벗어나 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응을 해야 한다고 지적이 제기됐다.[6]

사례

  • 구글의 이미지 인식 기술의 불완전성이 흑인 여성을 고릴라로 인식하거나, 위챗이 번역 과정에서 니그로라는 단어를 사용하고, 마이크로소프트테이 챗봇이 사용 과정에서 인종차별자나 혐오주의자의 표현을 사용하게 됐다. 이것은 알고리즘의 불완전성 또는 데이터의 부족, 잘못된 학습 등의 결과이다.
  • MIT 미디어 랩 조이 부올람위니(Joy Buolamwini)는 2018년 2월 그녀가 참여하는 젠더 쉐이즈(Gender Shades) 프로젝트를 통해서 마이크로소프트, IBM, 중국의 메그비의 페이스++ 기술을 비교했다. 그 결과, 피부 빛이 검을수록 인식 에러율이 크게 증가하는 것을 발견했다. 특히 피부색이 검은 여성의 경우에는 거의 35%나 오류가 발생했다.[5]
  • 전기차 업체 테슬라는 인공지능 자율주행 자동차 사고의 책임을 운전자에게 돌렸다. 테슬라의 자율주행 차량이 고속도로 중앙분리대를 들이받았고, 운전자는 사망했다. 테슬라는 자율주행모드라도 운전자는 운전대를 잡아야 한다고 말했고, 그 운전자는 그러지 않았다고 주장했다. 그러면서도 테슬라는 자율주행 시스템이 오류가 난 이유는 공개하지 않았다. 이는 인공지능을 활용한 신기술에 대한 윤리의식과 논리의 부재가 기업에 대한 시장의 불신으로 이어졌다. [7]

각주

  1. 1.0 1.1 정진명,이상용,〈인공지능 사회를 대비한 민사법적 과제 연구〉, 《프리즘》, 2017-12-15
  2. 코싸인,〈인공지능〉, 《브런치》, 2017-07-28
  3. 조진서,〈인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다〉, 《동아일보》, 2017-07-01
  4. 인공지능 시대의 법적·윤리적 쟁점 과학기술정책연구원- https://www.stepi.re.kr/
  5. 5.0 5.1 인공지능 윤리의 주요 이슈와 기업의 대응 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html
  6. 이은광 기자,〈4차 산업혁명, AI 윤리 문제와 대응안〉, 《데일리비즈온》, 2019-03-14
  7. 인공지능의 역습 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html

참고자료

같이 보기


  검수요청.png검수요청.png 이 책임법 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.