검수요청.png검수요청.png

책임법

해시넷
ghdrn221 (토론 | 기여)님의 2020년 7월 22일 (수) 16:23 판
이동: 둘러보기, 검색

책임법은 결함으로 인해 발생한 생명 및 신체의 손상 또는 재산상의 손해에 대하여 무과실책임의 손해배상 의무를 지우고 있는 법률이다. 인공지능 기술이 발전함에 따라 인공지능의 책임법에 대한 필요성이 나타난다. 법적 책임으로는 민사상 책임형사상 책임이 있다. 이 책임을 이들에게 어떻게 적용할지에 대한 논의가 많다. 현행법상으로 자율주행 자동차 같은 약인공지능제조물 책임법의 영향을 받는다.

개요

책임법은 결함으로 인해 발생한 생명 및 신체의 손상 또는 재산상의 손해에 대하여 무과실책임의 손해배상 의무를 지우고 있는 법률이다. 인공지능의 동작과 행동은 학습 및 의사결정을 지휘하는 알고리즘이 알려지더라도 모든 상황을 완전히 예측할 수는 없다. 민사책임은 일반적으로 동작이나 행동이 예측될 때에만 사용자, 생산자, 프로그래머 등이 그에 대한 책임을 진다. 만일 인공지능을 통해 악의적인 알고리즘을 프로그래밍하거나 가용 되는 데이터 세트에 영향을 주어 시스템을 손상시키는 등 인공지능을 통해 의도적으로 타인에게 손해를 입힐 경우에는 그에 대한 책임 부여는 비교적 간단하다. 그러나 인공지능의 동작과 행동은 예측할 수가 없어 인공지능에 의한 피해에 대해서 아무런 책임을 물을 수 없으며, 그 결과 책임법에 공백이 생길 수 있다.[1]

인공지능은 인간의 개입 없이 판단하고 행동할 수 있다. 이것은 법적으로 문제를 일으킬 수 있으며, 인간의 개입 없이 발생한 손해에 대한 책임을 묻기 위해서는 인공지능 관련 책임법이 필요하다. 현행법상으로 약인공지능제조물 책임법의 영향을 받는다. 제조물 책임법은 제조물의 결함으로 발생한 손해로부터 피해자를 보호하기 위해 제정된 법으로, 물품을 제조하거나 가공한 자에게 손해배상의 의무가 주어진다. 무인자동차가 사고를 내면 무인자동차의 제작자가 법적 책임을 진다. 하지만, 미래에 다가올 인간의 지능에 더 유사한 더 높은 능력과 자질을 갖춘 인공지능에게도 범죄의 금지에 대해서 알고 있지 않는 무죄의 대행자로 취급해야 하는지 논란이 제기되고 있다. 강한 인공지능에 다가갈수록 인공지능 로봇의 활동으로 인한 사고 발생에 대한 피해가 폭넓을 것이다. 그런 행동에 대비하여 새로운 형사정책이 필요하다.[2]

특징

인공지능이 책임법에 제기하는 법적 문제는 기술적 조치를 조합하여 해결해야 한다. 인공지능의 동작과 행동은 학습 및 의사결정을 지휘하는 알고리즘이 알려지더라도 모든 상황을 완전히 예측할 수는 없다. 인공지능의 동작과 행동은 가용 되는 데이터 세트에서 발견되는 패턴과 상관관계를 기반으로 하며, 이러한 패턴과 상관관계는 그 특성상 사전에 알려지지 않기 때문에 학습이 필요하지 않다. 그러나 인공지능의 동작과 행동을 완전히 예견할 수 없다는 것은 민사책임 체제에 대한 커다란 도전이기도 하다. 민사책임은 일반적으로 동작이나 행동이 예측될 때에만 사용자, 생산자, 프로그래머 등이 그에 대한 책임을 지기 때문이다. 만일, 인공지능을 통해 악의적인 알고리즘을 프로그래밍하거나 가용 되는 데이터 세트에 영향을 주어 시스템을 손상시키는 등 인공지능을 통해 의도적으로 타인에게 손해를 입힐 경 우에는 그에 대한 책임을 비교적 간단하게 부여한다. 그러나 인공지능의 동작과 행동은 예측할 수가 없어 인공지능에 의한 피해에 대해서 아무런 책임을 물을 수 없으며, 그 결과 책임법에 공백이 생길 수 있다.[1]

법의 능력 증대

특정한 이론적 고려 사항과 기술적 조치는 인공지능의 예기치 않은 동작과 행동을 다루기 위한 법의 능력을 증가시킨다. 첫째, 고려사항 중 하나는 인공지능에 의한 피해를 입은 희생자의 관점이다. 희생자에게 피해가 되는 것은 가해자가 아무리 피해를 예측할 수 있다고 하더라도 피해자에게 발생한 피해는 현존한다. 운전자가 운전 중에 문자를 쓰는 경우에는, 자율주행 자동차가 패턴을 인식하지 못한 경우이든 자동차 사고를 당한 피해자는 똑같은 피해를 입게 된다. 전자의 경우에는 가해자가 가지는 예측 가능성으로, 후자의 경우보다 피해자가 받아들일 수 있는 피해에 대한 책임을 더 많이 부여하지 않는다. 둘째, 구체적인 상황에서 인간의 행동은 충분히 예측할 수 없어 빠른 반응을 요구하는 상황에서 인간의 반응은 크게 다를 수 있다. 셋째, 민사책임의 보완을 목적으로 설계된 보험은 인공지능의 예견 불가 능성에 대한 관련성을 크게 감소시킨다. 기존 자동차에 대한 보험은 자율주행자동차에 대해서도 근본적으로 차이가 없다. 이는 보험금 산정은 그 잘못이나 비난과 무관하게 위험의 크기와 빈도에 비례하여 할당되기 때문이다. 넷째, 장래 국가의 인증과 결합될 인공지능은 과실의 가능성을 제거할 것이므로 과실에 대한 책임은 더 이상 필요하지 않을 수 있다. 이 경우에는 인공지능이 신체적 위험이 클수록 더 엄격한 테스트와 인증이 필요하다. 이러한 측면에서 인공지능에 대한 민사책임의 판단요소는 의도적 행위인 고의 및 부작위에 국한되며, 과실은 부주의한 행동과 구별하기 어렵다.

다섯째, 예측 가능성은 일반적으로 법률에 포함된 기대와 구별되어야 한다. 법은 특정 상황에서 특정 행동을 기대한다. 운전자는 충돌이 예측되는 경우에도 충돌을 피하고자 브레이크를 제동한다. 인간과 인공지능은 때때로 이러한 기대에 잘 부응할 수 있다. 그러나, 자율주행 자동차는 운전자보다 더 빨리 브레이크를 제동하는 것이 가능하므로 인공지능은 원래 인간을 염두에 둔 기대치를 더욱 잘 충족시킬 수 있다. 이처럼 인공지능은 법에 포함된 기대에 부응할 수 있으며, 시간이 지남에 따라 이러한 기대를 일반화할 수 있다. 여섯째, 인공지능이 특정 상황에서 결론을 수립하는 경우에는, 인간의 행동을 기준점으로 삼는 것이 도움이 될 수 있다. 손해를 초래한 인공지능 대신에 인간이 무엇을 했을 것인지에 대해서 질문할 수 있다. 자율주행 자동차가 충돌을 피하는데 부주의하지 않았다면 예측 불가능성에 관계없이 생산자가 손해에 대한 책임을 지는 방안이 고려될 수 있다. 일곱째, 인공지능에 국한된 것은 예측 가능성만이 아니다. 특정 상황에서 인공지능이 특정 방식으로 작동한 이유가 항상 이후에 완전하게 설명될 수 없거나, 적어도 부단한 노력 없이는 설명될 수 없다. 특정 상황에서 햇빛이 인공지능 센서의 작동에 장애를 야기할 때, 인공지능이 취한 결정은 선형모델에 따라 해석되어야 한다.[1]

제조물책임법

  • 인공지능의 결함 여부 : 제조물책임법은 책임성립 요건으로 결함을 들고 있다. 이는 제조상의 결함, 설계상의 결함, 표시상의 결함으로 구분할 수 있으며, 다음과 같다.
  1. 제조상의 결함 : 제조업자가 제조물에 대하여 제조상·가공 상의 주의의무를 이행하였는지의 여부에 관계없이 제조물이 원래 의도한 설계와 다르게 제조·가공됨으로써 안전하지 못하게 된 경우를 말한다. 인공지능의 경우 애초에 의도한 설계대로 인공지능을 제조하였다고 하더라도 인공지능의 기계학습으로 인하여 제조자가 의도하지 않은 손해를 야기할 수 있다. 이 경우 현행 제조물책임법으로는 그 손해를 규율할 수 없다.
  2. 설계상의 결함 : 제조업자가 합리적인 대체설계(代替設計)를 채용하였더라면 피해나 위험을 줄이거나 피할 수 있었음에도 불구하고 대체 설계를 채용하지 아니하여 해당 제조물이 안전하지 못하게 된 경우를 말한다(제2조 제2호 나목). 인공지능의 경우 수많은 컴포넌트로 구성된 인공지능 시스템의 특성으로 인하여 대체설계가 가능하지만 어떤 컴퍼넌트가 설계단계에서 인공지능 시스템에 사용될 것인지를 예견할 수 없기 때문에 설계상의 결함으로 판단하기 어렵다. 특히 현재로서는 최선의 기술기준에 의하더라도 설계상 불가피한 오류가 발생할 수 있으므로 대체설계의 결함으로 보기 어렵다.
  3. 표시상의 결함 : 제조업자가 합리적인 설명・지시・경고 또는 그 밖의 표시를 하였더라면 해당 제조물에 의하여 발생할 수 있는 피해나 위험을 줄이거나 피할 수 있었음에도 불구하고 이를 하지 아니한 경우를 말한다(제2조 제2호 다목). 표시상의 결함의 판단기준으로 가장 대표적인 것은 합리적인 설명・지시・경고 기타의 표시를 들 수 있으며, 합리적인 표시 여부를 판단하는 경우에도 위험-효용기준이 적용된다고 한다. 하지만 인공지능의 제조업자가 알고리즘에 결함이 없는 인공지능을 개발하였고, 또한 인공지능의 기계학습으로 인하여 애초에 예견할 수 없었던 피해가 발행한 경우에 인공지능의 제조업자에게 표시상의 결함을 묻기 어렵다.[1]
  • 인과관계의 입증
제조물책임법에 따른 손해배상을 처구하기 위해서는 제조물의 결함과 손해 사이에 인과관계가 입증되어야 한다. 그러나, 인공지능은 고도의 기술과 복잡한 공정으로 만들어지기 때문에 인공지능 시스템의 결함을 밝히기 어렵다. 또한, 그 작동에 고도의 기술과 복잡한 공정이 필요하기 때문에 작동 오류나 오조작을 입증하기 에도 어렵다. 또한, 인공지능 시스템과 관련하여 발생한 손해가 인공지능 시스템에 의한 것인지의 여부를 확인하기 어려울뿐만 아니라 인공지능의 개발에는 여러 사람이 관여하기 때문에 인과관계가 인정된다고 하더라도 책임범위를 구체적으로 산정하기 쉽지 않다.[1]

논란

법적 이슈

테슬라 자율주행 자동차

2016년 테슬라 자율주행 자동차의 사망 사고는 인공지능 사고의 법적 책임에 대한 관심을 불러일으켰다. 앞으로 이 문제가 정리되지 않으면 인공지능의 산업적 적용과 시장 확대도 더뎌질 것이다. 사회적 합의를 통해 인공지능 시스템과 그 소유주의 법적 책임의 기준과 인공지능의 효율적으로 처벌할 것인지를 규정해야 한다. 특히, 딥러닝 알고리즘의 특성상 눈에 보이는 규칙을 준수하게 하는 것은 불가능하다. 새로운 데이터 세트를 통한 재학습을 처벌로써 고려해야 한다. 기술이 사회를 변화시키는 데에는 시간이 필요하다. 기존 법 체제를 바꾸고 이해관계자들을 설득하는 일은 쉽지 않다. 택시업계의 반발로 한국 시장에서 거의 퇴출돼버린 우버가 대표적이다.

또한, 자율주행 자동차도 마찬가지이다. 테슬라는 이미 인간보다 훨씬 안전하게 차를 운전할 수 있는 자율주행 시스템을 개발했다고 하지만, 전 세계적으로 자율주행 자동차를 전면 허용하고 있는 국가나 지역은 아직 없다. 사고 시 법적 책임을 누가 져야 하는지에 대한 문제 때문이다. 현실적으로 인공지능이 실생활에 얼마나 빠르고, 얼마나 많은 변화를 가져올지는 기술의 발달과 속도가 아닌 법의 발전과 적응 속도에 달려있다. 인공지능과 관련한 법적 이슈 중에 핵심이 되는 것은 두 가지이다. 인공지능의 오류나 어쩔 수 없는 상황으로 인한 사고 발생 시 법적 책임 문제와 인공지능 그 자체의 법적 지위 문제이다. 만일 인공지능이 사람처럼 자체적인 판단력을 가지고 행동하게 된다면 이를 별개의 법적 주체로 대해야 한다.[3]

법적·윤리적 책임

현재 인공지능 알고리즘은 주어진 정보를 판단하고 사안마다 다르게 대응한다는 점에서 제조물책임법을 적용하기에는 무리가 있어 보인다. 라이언 칼로(Ryan Calo)는 로봇공학의 발전이 기존의 법률과 규범체계의 긴장을 증가시키므로 인공지능 등장으로 새롭게 문제되는 법률관계를 조정할 수 있는 로봇법 정책이 필요하다고 말했다.

인공지능 기술의 활용이 점점 더 커지면서 거론되는 법적·윤리적 쟁점을 열거하자면 다음과 같다.

  • 자율주행 차량이 사고를 냈을 때의 배상책임과 처벌
  • 자동적 주식거래 시스템에 대한 규제
  • 자율주행 차량의 사고 등 알고리즘의 실수로 불법행위나 피해가 발행했을 때의 법적 처리
  • 인공지능에 의한 질병의 검진과 로봇수술 허용 여부
  • 사람의 지시에 따라 활동하는 원격로봇에 법인격을 의제할 것인가
  • 로봇을 도덕적 행위자로 볼 수 있는가
  • 알고리즘의 편향이 누군가에게 피해를 주었을 때의 처리와 해결책은 어떻게 할 것인가

인공지능의 법적 지위

  • 인공지능 로봇을 자율적 행위자로 보아야 하는가
인공지능로봇이 소유주의 말을 따라서사람을 치거나 물건을 파손하거나 악용되고 사고를 일으키는 등
문제가 발생했을 때 책임은 언제나 소유주가 지는 것인지 아니면 그 명령을 따르도록 알고리즘을 설계한 제작자가 지는지를 가리기 쉽지 않다. 제조사나 설계자의 선택에 따라서 로봇은 자율적으로 행동할 여지가 있는데 그렇다면 로봇의 인공지능 시스템을 도덕적 행위자(AMA)로 의제하고 로봇에게 책임을 물어야 할 것인지에 대한 논의가 많아졌다.[4]

윤리적 이슈

인공지능 기술의 발전이 여러 영역에서 좋은 성과를 보이면서, 다양한 분야에서 활용되고 있다. 이와 동시에 개발에 활용된 데이터의 부족함 혹은 편향성이 내재된다거나, 사용 알고리즘 자체에 왜곡, 편향이 내포된다거나 또는 기술 자체의 부족함으로 인해 예상하지 못한 사회적, 윤리적 이슈가 발생하고 있으며 혹은 발생 가능성이 보인다.[5]

대표적으로 교통안전에 대해 등장하는 논리 이슈는 '트롤리 딜레마'이다. 성인과 어린이를 태우고 가던 자율주행 자동차가 전방에서 보행 신호를 무시하고 횡단보도를 건너고 있는 노인들을 발견했을 때, 그대로 직진해서 노인들을 죽게 할 것인지 아니면 방향을 틀어서 노인들을 피하는 대신 차가 장애물을 부딪쳐서 승객 세 명을 죽게 할 것인지를 묻는 질문이다. 이러한 이슈 때문에 인공지능에 대한 윤리적 대응 체계를 만들기 위해 총론적 담론 수준에서 벗어나 산업별, 서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응을 해야 한다고 지적이 제기됐다.[6]

사례

  • 구글의 이미지 인식 기술의 불완전성이 흑인 여성을 고릴라로 인식하거나, 위챗이 번역 과정에서 니그로라는 단어를 사용하고, 마이크로소프트테이 챗봇이 사용 과정에서 인종차별자나 혐오주의자의 표현을 사용하게 됐다. 이것은 알고리즘의 불완전성 또는 데이터의 부족, 잘못된 학습 등의 결과이다.
  • MIT 미디어 랩 조이 부올람위니(Joy Buolamwini)는 2018년 2월 그녀가 참여하는 젠더 쉐이즈(Gender Shades) 프로젝트를 통해서 마이크로소프트, IBM, 중국의 메그비의 페이스++ 기술을 비교했다. 그 결과, 피부 빛이 검을수록 인식 에러율이 크게 증가하는 것을 발견했다. 특히 피부색이 검은 여성의 경우에는 거의 35%나 오류가 발생했다.[5]
  • 전기차 업체 테슬라는 인공지능 자율주행 자동차 사고의 책임을 운전자에게 돌렸다. 테슬라의 자율주행 차량이 고속도로 중앙분리대를 들이받았고, 운전자는 사망했다. 테슬라는 자율주행모드라도 운전자는 운전대를 잡아야 한다고 말했고, 그 운전자는 그러지 않았다고 주장했다. 그러면서도 테슬라는 자율주행 시스템이 오류가 난 이유는 공개하지 않았다. 이는 인공지능을 활용한 신기술에 대한 윤리의식과 논리의 부재가 기업에 대한 시장의 불신으로 이어졌다.[5]

각주

  1. 1.0 1.1 1.2 1.3 1.4 정진명,이상용,〈인공지능 사회를 대비한 민사법적 과제 연구〉, 《한국민사법학회》, 2017
  2. 코싸인,〈인공지능〉, 《브런치》, 2017-07-28
  3. 조진서,〈인공지능 오류로 사고 땐 누구 책임? 법적 문제 정리돼야 시장이 커진다〉, 《동아일보》, 2017-07-01
  4. 과학기술정책연구원 공식 홈페이지 - https://www.stepi.re.kr/
  5. 5.0 5.1 5.2 국민권익위원회 공식 홈페이지 - http://acrc.go.kr/acrc/briefs/201901/html/index.html
  6. 이은광 기자,〈4차 산업혁명, AI 윤리 문제와 대응안〉, 《데일리비즈온》, 2019-03-14

참고자료

같이 보기


  검수요청.png검수요청.png 이 책임법 문서는 인공지능 기술에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.