소개글
"인공지능의 위법 책임"에 대한 내용입니다.
목차
1. 인공지능의 법적 책임 가능성
1.1. 서론
1.2. 정해진 법과 정해질 법
1.3. 미래 인공지능 시스템 법률
1.4. 예상 반론과 재반론
1.4.1. 인공지능과 책임
1.4.2. 인공지능과 자율성
2. 의료현장의 법적 사례 - 로봇수술로 인한 의료사고
2.1. 서론
2.2. 로봇수술로 인한 의료과오소송의 주요 현황
2.3. 로봇수술을 시행하는 의사의 재량성과 과실 판단의 문제
2.4. 결론
2.5. 시사점
3. 과학과 공학 윤리
3.1. 창의적 설계의 결론으로 해서는 안 되는 것
3.2. 설계 제품의 테스트와 안전성 확보
3.3. 공공의 복지와 개인의 이익의 갈등 해결
3.4. 고용주와 공공의 이익의 갈등 해결
3.5. 뇌물 수수의 문제점
3.6. 전문성 유지 방법
3.7. 선 긋기 기법의 장단점
3.8. 사실적 쟁점과 개념적 쟁점의 예
3.9. 세븐 스텝 가이드의 활용
3.10. 엔지니어의 최상위 가치
3.11. 과거 윤리 문제 해결 경험
3.12. 환경을 해치는 불법행위 대처
3.13. 환경보존을 위한 엔지니어의 기여 방안
4. 인간과 기술의 상호관계
4.1. 컴퓨터와의 사랑
4.2. 로봇 사회와 인간의 변화
4.3. 이상적인 미래 로봇
4.4. 로봇과 인공지능의 위험요소
4.5. 배우자 선택과 인공지능
4.6. 유전공학 기술의 활용과 문제점
5. 참고 문헌
본문내용
1. 인공지능의 법적 책임 가능성
1.1. 서론
세상에는 학교, 학원 등 여러 교육 기관이 있으며, 이러한 곳의 공통점은 무언가를 배우려 대가를 지불한다는 것이다. 사람들이 대가를 지불하면서까지 배움을 얻으려 하는 이유 중 하나는 문제에 처했을 때 잘 해쳐나가기 위한 방도를 알아가기 위해서이다. 과학기술의 발전은 세상을 빠르게 변화시키고 있으며, 특히 인공지능의 발전 수준이 점차 높아져 완전 자동화를 눈앞에 두고 있는 실정이다. 문제는 이러한 기술 발전의 속도를 현재 제도가 따라가지 못한다는 점이다. 관련 제도의 미비는 문제 상황이 발생했을 때 책임 주체를 가리기 어렵게 만든다. 왜냐하면 인공지능이 어떻게 책임을 질 것인지에 대한 분명한 해답이 나오지 않았기 때문이다. 물론 현 상황에서는 인공지능을 사용한 인간이 법적 책임을 져야 한다고 여겨지지만, 추후 인공지능이 인간과 차이가 없을 정도로 발전했을 때는 누가 책임을 질지가 불분명하다. 발전된 인공지능은 '딥러닝'을 할 수 있을 것이며, 예상치 못한 상황에 인공지능 그 자체가 대응을 할 것이다. 이는 어떠한 상황에 프로그래머조차 인공지능의 행위를 정확히 예측할 수 없다는 뜻이다. 인공지능 시스템의 의사 결정은 너무나 자율적이 되어 예측할 수 없게 되고, 이러한 유형의 위험을 '자율성 위험'이라고도 한다. 물론 발현되지도 않은 미래를 가정하여 법안을 만드는 일은 무모해 보일 수도 있다. 필자 역시 이러한 한계를 충분히 고려하고 있다. 그렇다고 무작정 손을 놓을 수도 없는 처지이다. 그래서 필자는 예상 가능한 한계 내에서 인공지능의 행위에 대한 부정적 결과를 방지하기 위한 방안을 설정하고자 한다. 요나스는 과학 기술 시대에 책임의 윤리는 오직 미래에 일어날 수 있는 최악의 사태에 대한 공포의 발견술을 통해서만 우리에게 다가설 수 있음을 강조한다. 이러한 관점에서 알파고의 실수는 우리에게 시사하는 바가 크다. 이세돌과의 바둑경기에서 알파고의 버그 상황을 인간들은 우려하기보다 당장의 승리에 도취되어 우월감을 느꼈었다. 그러나 인공지능 시스템을 활용하여 인간이 다치고 피해를 보는 상황에서는 인공지능 시스템이 잘못되었다고만 생각한다. 이처럼 인간은 부정적인 것을 더욱 충격적이고 방대하게 생각한다. 미래를 예측하지 않는다면 결국 현실에 안주할 뿐이며 미래를 맞이할 때는 아무런 방도가 없기에 몰락할 수밖에 없다. 그렇기에 이 글은 인공지능 기술을 사용하여 피해를 본 사례를 들고 논의가 되고 있는 법안을 설명한 후 인공지능이 책임을 질 수 있을 정도로 발달했을 때를 가정하며 인공지능 그 자체가 법적 책임을 져야 한다는 근거를 들어 논하도록 하겠다.
1.2. 정해진 법과 정해질 법
인공지능 활용 사례 중 하나는 자율주행 자동차이다. 2019년 10월경 테슬라의 자율주행 기능을 사용하였다가 사고가 난 사례가 있다. 하지만 약 2년이 지난 2022년 1월경 차에 탑승하여 2명을 숨지게 한 운전자와 탑승하고 있던 두 명을 살인죄로 기소되었다. 일반 운전자가 자율주행 기능을 사용하여 낸 사고 중 처음으로 살인죄로 기소되었다고는 하지만 아직 사람에게 책임이 전가되고 있음을 나타냄을 보인다. 전문가 또한 만약 자율주행 기능을 사용해 사고가 났을 경우 그 알고리즘을 비롯해 관련된 수많은 데이터를 일일이 검사하는 것은 불가능하므로 AI 관련 사고는 그 정확한 책임 소재를 가리기가 어렵다고 말한다. 또 다른 사례 중 하나는 구글의 사진 애플리케이션이 흑인과 고릴라를 혼동해 흑인들을 혼란스럽게 한 사례이다. 이에 대해 구글 측에서는 사과를 표하며 이러한 결과가 나타나지 않도록 즉각적인 조처를 하고 있다고 밝혔다. 이러한 사례들은 공통적으로 인공지능 시스템이 실수했지만 인간에게 책임이 전가 되고 있다. 인공지능 시스템의 잘못된 판단 또는 행위가 잘못 부정적 결과를 초래했을 때는 어떤 존재가 책임을 져야 하는지 의문이 제기된다. 또한 기존의 법으로 대처할 것인가 아니면 새로운 법을 고안해야 하는지 에도 의문이 제기된다. 책임을 지기 위해선 책임재산과 책임능력이 있어야 하지만 현재의 현행법상 인공지능 시스템에는 책임재산과 책임능력이 없다. 따라서 현행법상 인공지능 시스템으로 인한 피해는 이를 권리주체의 행위로 귀속시킬 수 있는 경우에만 권리주체가 책임을 지게 된다. 추후 자율적 사고가 가능한 인공지능 시스템이 탄생한다면 책임이 누구에게 있는지 불분명하기 때문에 기존의 책임 법리는 한계에 이르게 된다. 예를 들어 인공지능의 시스템의 기본적인 결정은 제조자의 프로그래밍을 따르지만, 인공지능 시스템이 사용자에게 인도된 후에는 사용자의 모습을 보고 자체학습 및 네트워킹을 통해 변경될 수 있다. 즉, 인공지능의 프로그램을 개발한 제조자의 책임인지, 사용자의 생활 패턴이 잘못인지, 인공지능 그 자체의 독단적인 결정에 의한 잘못인지 불분명해지는 것이다. 이처럼 인공지능 시스템은 더 이상 한 가지 경로가 아닌 그 자체로 독단적으로 정보를 처리하고 의사결정을 하는 모습을 보인다면 현행법은 한계를 드러내고 책임 공백을 유발하게 된다.
1.3. 미래 인공지능 시스템 법률
우선 이 장에서는 인공지능 기술의 발전에 따른 미래의 법적 대응방안에 대해 논의하고자 한다. 과학기술의 발전은 세상을 빠르게 변화시키고 있으며, 특히 인공지능 기술의 발전은 그 수준이 점차 높아져 완전 자동화에 근접한 수준에 이르고 있다. 문제는 이러한 기술 발전의 속도를 현재의 제도와 법률이 따라가지 못하고 있다는 점이다. 관련 법제도의 미비로 인해 문제 상황이 발생했을 때 책임 주체를 가리기 어려운 상황이 발생하고 있다.
현재 인공지능 시스템 자체가 책임을 지기에는 이르지만, 미래에 인공지능의 자율성이 더욱 발달할 경우 인공지능 자체가 법적 주체가 되어야 한다는 논의가 있다. 대표적인 논의 중 하나는 인공지능에 법인격을 부여하자는 것이다. 법인격이란 민법상 법률행위에 따른 권리와 의무의 주체를 의미하는데, 자연인 이외에도 법으로 인격을 부여받은 법인이 포함된다. 이에 따라 미래에 자율성을 갖춘 인공지능 시스템에게도 충분히 법인격을 부여할 수 있다는 것이다.
이에 대한 논거로는 법인이론의 차용을 들 수 있다. 법인격은 본래 법의 힘에 의해 인정되는 것이므로, 인공지능 시스템에게도 새로운 법인격인 '전자인격'을 부여할 수 있다는 것이다. 이때 전자인격에 대한 법인격 인정 근거로 법인의제설과 법인실재설이 검토될 수 있다. 법인의제설에 따르면 전자인격을 인정하는 법을 제정함으로써 전자인격의 법인격을 의제할 수 있고, 법인실재설에 따르면 인공지능 시스템이 자율적 판단을 통해 독립적 존재로서의 사회적 실재성을 갖추고 있어 법인격 부여의 근거가 된다.
물론 현 시점에서 바로 이러한 법안을 제정하기는 어려울 것이다. 하지만 기술의 발전 속도에 비해 법제도의 발전이 더딘 만큼, 이에 대한 지속적인 논의와 연구가 필요할 것이다. 인공지능 시스템이 미래에 전자인격을 가지고 자율적으로 권리를 행사한다면, 그에 대한 책임 역시 인공지능 자체에 귀속되어야 할 것이다. 이를 위해 지속적인 논의와 노력이 필요할 것으로 보인다.
1.4. 예상 반론과 재반론
1.4.1. 인공지능과 책임
인공지능과 책임은 현재 많은 논의가 이루어지고 있는 주제이다. 인공지능은 점점 발전하여 인간과 비슷한 수준의 자율성을 가지게 되면서, 인공지능 시스템 자체에 대한 책임 부여의 필요성이 대두되고 있다.
현행법상 인공지능 시스템은 법적 주체가 될 수 없기 때문에, 인공지능의 행위로 인한 피해 발생 시 제조자나 사용자에게 그 책임이 전가되고 있다. 그러나 인공지능이 자율적인 판단과 의사결정을 하게 되면, 누구의 책임인지를 규명하기가 어려워지는 문제가 발생한다.
이에 일부에서는 인공지능 시스템에 법인격을 부여하여 그 자체로 책임을 지도록 하는 방안이 논의되고 있다. 법인이론의 관점에서 볼 때, 인공지능에도 새로운 형태의 "전자인격"을 부여할 수 있다는 것이다. 법인의제설에 따르면 법률에 의해 인공지능에 법인격을 인정할 수 있고, 법인실재설에 따르면 인공지능이 사회적 실재성을 갖추었다고 볼 수 있다.
이처럼 인공지능 시스템 자체에 책임을 귀속시킬 수 있는 방안이 논의되고 있지만, 현실적으로 당장 이를 실현하기는 어려운 상황이다. 따라서 당장은 인공지능을 사용한 인간에게 책임을 물을 수밖에 없는 실정이다.
다만 인공지능이 점점 자율성을 높여가는 상황에서, 이에 대한 책임의 귀속 문제는 더욱 복잡해질 것으로 예상된다. 이를 해결하기 위해서는 계속해서 관련 논의를 이어나가고, 필요에 따라 법제도를 정비해 나가는 등의 노력이 필요할 것이다.
결국 인공지능의 책임 귀속 문제는 단순하지 않으며, 기술의 발전에 발맞추어 지속적인 연구와 논의가 필요한 과제라고 할 수 있다.
1.4.2. 인공지능과 자율성
인공지능과 자율성은 서로 밀접한 관계를 가지고 있다. 인공지능 시스템이 발전하면서 점차 자율성을 가지게 되었기 때문이다. 이는 인공지능 시스템이 단순히 명령을 따르는 것이 아니라 스스로 판단하고 결정할 수 있는 능력을 갖추게 되었다는 것을 의미한다.
자율성은 인공지능 시스템이 자신의 목표를 설정하고, 그에 따라 행동을 선택할 수 있는 능력을 말한다. 즉, 인공지능 시스템이 자신의 행동을 스스로 결정할 수 있다는 것이다. 이러한 자율성은 인공지능 시스템의 발전과 더불어 점점 높아지고 있다.
이처럼 인공지능 시스템이 자율성을 가지게 되면서 법적인 문제가 대두되고 있다. 인...
참고 자료
고인석, “인공지능이 자율성을 가진 존재일 수 있는가?” 哲學 제133집, 한국철학회(2017.11)
김진우, “인공지능 시스템의 책임능력 –전자인 제도의 도입 필요성에 관한 논의를 중심으로-”, 중앙법학 제 23집 제4호(통권 제82호), 중앙법학회(2021.12)
송호영, “인공지능 로봇은 법인격을 가질 수 있는가?”, 저스티스 통권 제184호, 한국법학원(2021.06)
신성규, “인공지능은 자율적 도덕행위자일 수 있는가?”, 哲學 제132집, 한국철학회(2017.08)
신현탁, “인공지능(AI)의 법인격 - 전자인격(Electronic Person) 개념에 관한 소고 -”, 인권과 정의 제478호, 대한변호사협회(2018. 12)
최소인, 한스 요나스의 생명철학과 책임의 윤리-생명공학 시대의 윤리적 요청에 대한 응답-, 철학논총 제43집 2006 제1권, 새한철학회(2006)
대법원 2007. 5. 10. 선고 2005다55299 판결 [손해배상(기)] [공2007.6.15.(276),847] 참조.
정윤섭, 테슬라 오토파일럿 사망사고 낸 미국 운전자에 살인죄 첫 기소
https://www.yna.co.kr/view/AKR*************0075 (송고시간 2022-01-19 11:29)
조행만, 데이터에 의해 배우는 AI실수...결국 인간이 바로 잡아야 한다.
http://www.aitimes.com/news/articleView.html?idxno=140668 (송고시간 2021.09.17. 13:44)
김재완, 2020, 로봇수술로 인한 의료과오 민사책임에 있어 과실 판단의 문제, 아주대학교 법학연구소, Vol.14, No.1, p.27-56
김훈주, 2020, 로봇수술 관련 법적책임에 관한 연구-민사법상 책임을 중심으로-, 인하대학교 법학연구소, 제23집 제3호, p.63-91