책임법

해시넷
hyerim302 (토론 | 기여)님의 2020년 7월 21일 (화) 17:37 판 (같이 보기)
이동: 둘러보기, 검색

인공지능 기술이 발전함에 따라 인공지능의 책임법에 대한 목소리가 커지고 있다. 법적 책임으로는 민사상 책임형사상 책임이 있다. 이 책임을 이들에게 어떻게 적용시킬지에 대한 논의가 진행중이다.

개요

인공지능은 인간의 개입 없이 판단하고 행동할 수 있다. 이것은 법적으로 문제를 일으킬 수 있으며, 인간의 개입 없이 발생한 손해에 대한 책임을 묻기 위해서 인공지능 관련 책임법이 필요하다. 현행법상으로 약인공지능제조물 책임법의 영향을 받는다. 제조물 책임법은 제조물의 결함으로 발생한 손해로부터 피해자를 보호하기 위해 제정된 법으로, 물품을 제조하거나 가공한 자에게 손해배상의 의무가 주어진다. 무인자동차가 사고를 내면 무인자동차의 제작자가 법적 책임을 진다는 것이다. 하지만 미래에 다가올 인간의 지능에 더 유사한 더 높은 능력과 자질을 갖춘 인공지능에게도 범죄의 금지에 대해서 알고 있지 않는 무죄의 대행자로 취급해야 하는지 논란이 제기되고 있다. 강한 인공지능에 다가갈수록 인공지능 로봇의 활동으로 인한 사고발생에 대한 피해가 폭넓을 것이다. 그런 행동에 대비하여 새로운 형사정책이 필요하다.[1]

특징

법적인 이슈

현재 인공지능과 관련한 법적 이슈들 중에 핵심이 되는 것은 다음과 같다.

  1. 인공지능의 오류나 어쩔 수 없는 상황으로 인한 사고 발생 시 법적 책임 문제
  2. 인공지능 그 자체의 법적 지위 문제(사람처럼 자체적인 판단력을 가지고 행동할 시)[2]

법적·윤리적 책임

현재 인공지능 알고리즘은 주어진 정보를 판단하고 사안마다 다르게 대응한다는 점에서 제조물책임법을 적용하기에는 무리가 있어보인다. 라이언 칼로(Ryan Calo)는 로봇공학의 발전이 기존의 법률과 규범체계의 긴장을 증가시키므로 인공지능 등장으로 새롭게 문제되는 법률관계를 조정할 수 있는 로봇 법정책이 필요하다고 말했다.

인공지능 기술의 활용이 점점 더 커지면서 거론되는 법적·윤리적 쟁점을 열거하자면 다음과 같다.

  • 자율주행 차량이 사고를 냈을 때의 배상책임과 처벌
  • 자동적 주식거래 시스템에 대한 규제
  • 자율주행 차량의 사고 등 알고리즘의 실수로 불법행위나 피해가 발행했을 때의 법적 처리
  • 인공지능에 의한 질병의 검진과 로봇수술 허용 여부
  • 사람의 지시에 따라 활동하는 원격로봇에 법인격을 의제할 것인가
  • 로봇을 도덕적 행위자로 볼 수 있는가
  • 알고리즘의 편향이 누군가에게 피해를 주었을 때의 처리와 해결책은 어떻게 할 것인가

인공지능의 법적 지위

  • 인공지능 로봇을 자율적 행위자로 보아야 하는가
인공지능로봇이 소유주의 말을 따라서사람을 치거나 물건을 파손하거나 악용되고 사고를 일으키는 등
문제가 발생했을 때 책임은 언제나 소유주가 지는 것인지 아니면 그 명령을 따르도록 알고리즘을 설계한 제작자가 지는지를 가리기 쉽지 않다. 제조사나 설계자의 선택에 따라서 로봇은 자율적으로 행동할 여지가 있는데 그렇다면 로봇의 인공지능 시스템을 도덕적 행위자(AMA)로 의제하고 로봇에게 책임을 물어야 할것인지에 대한 논의가 되고있다.[3]

윤리적 이슈

인공지능 기술의 발전이 여러 영역에서 좋은 성과를 보이면서, 다양한 분야에서 활용되고 있다. 이와 동시에 개발에 활용된 데이터의 부족함 혹은 편향성이 내재된다거나, 사용 알고리즘 자체에 왜곡, 편향이 내포된다거나 또는 기술 자체의 부족함으로 인해 예상하지 못한 사회적, 윤리적 이슈가 발생하고 있으며 혹은 발생가능성을 보이고 있다.[4]

대표적으로 교통안전에 대해 등장하는 논리 이슈는 트롤리 딜레마’이다. 성인과 어린이를 태우고 가던 자율주행 자동차가 전방에서 보행신호를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때, 그대로 직진해서 노인들을 죽게 할 것인지 아니면 방향을 틀어서 노인들을 피하는 대신 차가 장애물을 부딪쳐서 승객 세 명을 죽게 할 것인지를 묻는 질문이다. 이러한 이슈때문에 인공지능에 대한 윤리적 대응체계를 만들기 위해 총론적 담론 수준에서 벗어나 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응을 해야 한다고 지적이 제기되고있다.[5]

사례

  • 구글의 이미지 인식 기술의 불완전성이 흑인 여성을 고릴라로 인식하거나, 위챗이 번역 과정에서 니그로라는 단어를 사용하고, 마이크로소프트테이 챗봇이 사용 과정에서 인종차별자나 혐오주의자의 표현을 사용하게 됐다. 이것은 알고리즘의 불완전성 또는 데이터의 부족, 잘못된 학습 등의 결과이다.
  • MIT 미디어 랩 조이 부올람위니(Joy Buolamwini)는 2018년 2월 그녀가 참여하는 젠더 쉐이즈(Gender Shades) 프로젝트를 통해서 마이크로소프트, IBM, 중국의 메그비의 페이스++ 기술을 비교했다. 그 결과, 피부 빛이 검을수록 인식 에러율이 크게 증가하는 것을 발견했다. 특히 피부색이 검은 여성의 경우에는 거의 35%나 오류가 발생했다.[4]

인공지능과 제조물책임법

제조물책임이란 피해자의 생명 신체 또는 재산에 발생한 손해가 제조물의 결함으로 인하여 발생한 경우에 제조업자 등이 부담하는 손해배상책임이다. 이러한 내용을 담고 있는 제조물책임법은 제품의 결함으로 발생한 손해에 대하여 제조업자 등의 책임을 강화함으로써 피해자를 구제하려는 특징을 가지고 있다.

인공지능의 결함으로 인해 손해가 발생한 경우 제조물책임법의 적용을 받기 위해서는 인공지능이 제조물이어야 한다. 인공지능이 갖는 특성이 소프트웨어와 유사하다는 점에 착안하면 소프트웨어가 제조물인지 여부에 대한 법적 논의를 인공지능에도 적용하는 시도를 해볼 수 있다. 소프트웨어를 하드웨어에 포함시켜서 판매하는 일반적인 방식이라면 제조물책임법상 산업적으로 제조된 상품으로 취급된다고 볼 수 있다. 하지만 소프트웨어만 독립적으로 제작되어 거래되는 방식이라면 제조물책임법상의 제조물이라고 볼 수 있는지 여부에 대해서는 논란의 여지가 있다.[6]

각주

  1. 코싸인,〈인공지능〉, 《브런치》, 2017-07-28
  2. 조진서,〈인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다〉, 《동아일보》, 2017-07-01
  3. 인공지능 시대의 법적·윤리적 쟁점 과학기술정책연구원- https://www.stepi.re.kr/
  4. 4.0 4.1 인공지능 윤리의 주요 이슈와 기업의 대응 국민권익위원회- http://acrc.go.kr/acrc/briefs/201901/html/sub.html
  5. 이은광 기자,〈4차 산업혁명, AI 윤리 문제와 대응안〉, 《데일리비즈온》, 2019-03-14
  6. 이한영,차성민,〈인공지능과 제조물책임〉, 《인문사회과학기술융합연구회》, 2017-03-32

참고자료

같이 보기