주지하는 바와 같이 ‘인공지능(AI, Artificial Intelligence)’이라는 용어는 1956년 미국 다트머스대학교의 수학자이자 컴퓨터 과학자인 존 매카시(John McCarthy)가 ‘인공지능 하계 연구 프로젝트’로 기획한 ‘다트머스 회의(Dartmouth Conference)’에서 처음으로 등장하여 세상에 알려졌다. 이후 인공지능은 사이보그, 봇, 인공지능 로봇, 인공지능 에이전트 등의 이름과 혼용하여 과학기술 분야의 태풍으로 떠오르며 인간 사회에 엄청난 이익을 가져다줄 것으로 기대되고 있다. 운전 사고를 줄이고 안전성을 높여줄 자율주행차1, 암 환자 등에 최적의 치료 방법을 제시하는 의료 인공지능2, 핀테크(FinTech)의 발전에 따라 투자자산에 대한 맞춤형 자산 관리 서비스를 제공하는 로보어드바이저3의 등장 등 인공 신경망을 활용한 딥러닝(deep learning)을 통해 산업 전 분야에서 인공지능이 주도하는 시대가 목전에 있다고 할 수 있다.
이와 함께 인공지능 기술 발전에 불안과 우려가 제기되기도 한다. 기술이 발전함에 따라 새로이 나타나는 사회현상에 법이 빠르게 적응하지 못하는 경우가 많기 때문이다. 따라서 법 제도를 정비하여 인공지능 기술 발전을 견인하고 이에 따른 불안과 우려를 불식하는 법리를 구축하는 노력이 이루어져야 할 시점이다.
인공지능과 법의 만남은 두 가지 관점에서 살필 수 있다. ‘법을 위한 인공지능(AI for law)’과 ‘인공지능을 위한 법(law for AI)’이 그것이다. 전자는 기술을 활용하여 법률 서비스를 개선하는 분야로 리걸테크(legal-tech), 법률인공지능(legal AI) 등으로 불리는 영역이다. 후자는 전통적인 법만으로는 해결이 어려운 AI 기반의 미래 사회를 규율할 법을 찾아가는 영역이라 할 수 있다. 이 특집에서 주어진 주제인 ‘AI 시대의 법적 이슈’라 하면 주로 후자의 관점에서 생활 속 인공지능이 차지하는 법적 지위 및 자율주행차량의 사고와 같이 인공지능 알고리즘의 편향성과 오류로 누군가에게 피해를 주었을 때의 처리와 해결책 등이 문제되는 것이라 할 수 있다. 인공지능을 가진 로봇이 자율성을 갖고 사람과 유사하게 행동한다면 그의 법적 지위에 대한 논의는 법률행위 및 그에 따라 스스로 지게 되는 책임 문제로까지 확대될 것이다. 이와 관련하여 유럽의회에서는 지능형 자율 로봇에 ‘전자인간(electronic persons)’이라는 개념을 제시한 바 있다. 우리나라에서도 ‘로봇기본법’ 제정안이 발의되어 “자율성을 가진 정교한 로봇의 경우 전자인간으로서의 법적 지위를 부여”할 수 있는 토대를 마련하는 등 여러 논의가 이루어지고 있다. 이러한 논의에서 AI 시대에 대비하는 법의 흐름을 살필 수 있을 것으로 생각된다.
유럽의회는 2017년 2월 16일 ‘로봇에 관한 민사법 규칙(Civil Law Rules on Robotics)’4을 결의하고, 집행위원회에 민사법적 책임의 관점에서 로봇에 대한 입법을 권고하였다. 이 결의안은 로봇 및 인공지능 개발에 관한 일반 원칙, 연구 방향, 윤리 원칙, 안전 및 보안 등의 내용 외에 특히 법적 책임과 관련하여 의무보험제도 도입, 손해에 대비한 기금의 창설, 장기적으로 로봇에게 ‘전자인간’으로서 구체적인 법적 지위를 부여하는 방안을 고려할 것 등을 권고하고 있다. 이는 자율화된 인공지능 로봇이 제3자와 독자적으로 상호작용을 하고 자신이 야기한 손해를 전보할 책임을 지는 ‘전자인격(electronic personality)’의 향유자가 됨을 상정하고 있는 것이다.
우리나라에서도 이러한 유럽의회의 동향에 영향을 받아 2017년 7월 19일에 전자인간의 개념을 도입한 ‘로봇기본법’ 제정안을 발의하였다(박영선 의원 대표 발의). 이 법안은 기존에 시행되고 있는 ‘지능형 로봇 개발 및 보급 촉진법’이 로봇 산업에 초점을 맞춘 한시법으로서 가지는 단점을 극복하기 위한 것이기도 하며5, 로봇의 보편화에 따른 사회적 수용 과정에서 발생할 수 있는 다양한 이슈를 담아낸 것이라고도 볼 수 있다. 이 법은 또한 로봇에 관한 윤리와 책임의 원칙을 정하고 로봇 관련 사회적 기반 조성 및 국가 경쟁력 제고를 그 목적으로 하고 있다. 이 법안에서는 “외부 환경을 스스로 인식하고 상황을 판단하여 자율적으로 동작하는 기계장치 또는 소프트웨어”를 로봇의 개념으로 정의한다. 이어 로봇 윤리 규범에 관한 사항, 로봇 관련 정책추진위원회, 로봇기본계획, 로봇에 따른 손해배상책임 문제 등 로봇의 등장에 따라 발생할 수 있는 다양한 사회문제와 로봇과 관련한 기본 원칙 등을 규정하여 로봇에 관한 기본법 역할을 할 수 있도록 내용을 규정하고 있다.
특히 이 법안은 유럽의 흐름에 발맞추어 전자인간에 관련한 규정을 두어 제3조 제7항에서 “국가는 자율성이 인정되는 정교한 로봇에 대한 새로운 법적 지위의 부여, 로봇으로 인한 손해에 대한 책임 확보 및 보상 방안 등에 관한 정책을 마련하여야 한다”고 규정하고, 제9조 제2항 제2호에서는 국가로봇윤리·정책위원회의 심의 사항 중 하나로 “자율성을 가진 정교한 로봇의 경우 전자인간으로서의 법적 지위 부여 방안에 관한 사항”을 정해놓고 있다. 바야흐로 인류의 역사에 전자인간과 함께 사는 시대가 도래하고 있는 셈이다.
인공지능 로봇이 전자인간으로서의 법적 지위를 갖는다는 것은 어떤 의미가 있으며, 이러한 법적 지위를 인정할 수 있는 논거는 어떻게 될 것인가?
현행 법체계에서는 권리 의무의 주체로 자연인과 법인만을 인정하며(민법 제3조, 제34조), 그 밖에 “유체물 및 전기 기타 관리할 수 있는 자연력”은 물건으로서 권리의 객체로 규율하고 있다(민법 제98조). 권리 의무의 주체가 될 수 있는 추상적·잠재적인 법률상의 지위를 권리능력 또는 인격이라고 한다. 그런데 인공지능 알고리즘이 하드웨어적으로 구현되어 물건으로 다루어지는 인공지능 로봇이 외부 환경을 스스로 인식하고 상황을 판단하여 자율적으로 작동하고 처리하는 경우 그 법적 지위를 무엇으로 볼 것인지가 문제다. 다시 말해 사람이 아닌 인공지능 로봇의 법률행위 의사표시에 대하여 그 행위능력을 인정하여야 하고, 이때 행위능력은 개념상 권리능력을 전제로 하므로 이러한 인공지능에 대하여 제한적 범위 내에서의 권리능력, 즉 법적 ‘인격’을 부여할 필요성이 제기되는 것이다. 이처럼 자율적 판단이 가능한 인공지능 또는 지능형 로봇의 등장은 자율성을 바탕으로 이성적 판단을 하는 사적 개인으로서의 인간을 전제로 하는 전통적인 법 이론에 근본적인 변화를 가져오게 한다. 자아를 갖춘 인공지능이 등장한다면 근대적 인권 개념의 핵심 요소인 자율성(autonomy)에 대한 재해석이 불가피하게 된다. 유럽의회는 결의안에서 이러한 인공지능의 제한적 권리능력을 ‘전자인격’으로 명명하자고 한다. 이를 위해 유럽의회는 –법인등기와 유사하게- 인공지능 로봇의 등록제를 제안한 바 있으며, 우리의 ‘로봇기본법(제17조)’도 로봇등록제를 도입하고 있다. 이러한 제한적 권리능력의 인정은 인간의 통제 밖에서 시스템적으로 이루어지는 인공지능의 자율성이라는 특성상 인공지능 스스로 책임재산을 소유하게 할 정책적 필요에 의해 주장되기도 한다. 인공지능은 인간의 지능과 같은 방식으로 독자적으로 자율적 판단을 하게 되는바, 이러한 판단은 인간의 판단과 마찬가지로 항상 옳은 것은 아니고 때로는 결과적으로 볼 때 오류가 있는 판단일 수 있다. 이 경우 인공지능의 자율적 판단에 대하여 이를 의도하지 않았던 인공지능 ‘제조자’나 그 ‘소유자 또는 이용자’에게 책임을 지우기 어려운 문제가 있다. 이때의 책임재산 확보를 위하여 유럽의회는 의무적 책임보험 도입, 개별적 및 집단적 배상 기금 조성과 같은 제안도 하고 있다.
한편 인공지능 로봇에 권리 주체성을 인정하지 않는 입장에서 일반적 물건과 구별되는 개념으로 동물적 특성을 로봇에 적용하자는 주장도 있다. 동물은 생명과 감정을 통하여 인간과 유대를 가져왔으며, 일정한 범위에서 법적으로 보호받을 객체로 인정되고 있다. 반려동물에 대한 인식 변화와 더불어 오스트리아나 독일, 스위스에서는 민법을 개정하여 “동물은 물건이 아니다”라는 문구를 추가했다. 동물의 경우 권리 주체는 못 된다 하여도 사람과 의사소통이 이루어진다는 점에서 보통의 물건과는 다르게 다루어질 필요가 있다는 것이다. 이처럼 사람과 물건이라는 이분법적 체계로부터 사람과 (반려)동물, 그리고 물건이라는 삼분법 체계로 전환해가는 것은 권리 주체로서의 인간과 권리 객체로서의 물건과의 관계 변화로, 민법상 물건의 체계에 대한 획기적인 사건이라고 할 수 있다. 이러한 입장을 반영한다면 자율성 확대로 사람과 소통하게 되는 전자인간으로서의 인공지능에 대하여 최소한 물건이 아닌 삼분법적 체계의 대상으로 삼아 동물과 유사한 법적 지위를 부여할 가능성도 있을 것이다.
제조물 책임에서는 소프트웨어나 프로그램이 물건이 될 수 없다거나 결함에 대한 개발 위험의 항변으로 책임을 피해가는 한계가 있을 수 있다.
(1) 인공지능 알고리즘의 오류로 손해가 발생한 경우 현재까지 그 책임을 총괄적으로 다루는 별도의 법은 아직 없다. 제조물 책임법이나 자동차손해배상보장법과 같은 개별법 또는 일반법으로서 민법의 틀 안에서 손해배상책임의 근거를 찾게 된다. 현행법에 따라 민사책임을 지는 근거는 계약 책임과 불법행위 책임으로 구분할 수 있다. 계약상의 책임으로서 유상계약의 경우에 물건 그 자체만의 하자 손해에 한정하여 인정되는 하자담보 책임은 큰 의미를 갖지 못한다. 급부의무 불이행에 따른 지연 손해 내지 이행이익에 대해 배상하거나 부수의무 위반으로 인한 확대 손해에 대한 책임을 묻는 채무불이행책임의 경우에는, 인공지능을 계약상 채무자나 이행 보조자로 볼 수 있는지의 문제가 생긴다. 불법행위 책임으로는, 인공지능을 써서 얻는 이익에 주목하는 사용자 책임(민법 제756조), 인공지능을 공작물로 보아 공작물의 설치·보존상의 하자에 대한 점유자·소유자 책임(민법 제758조), 인공지능을 동물에 준하는 것으로 보아 동물 점유자 책임(민법 제759조) 등의 법리를 적용할 수 있다. 또 결함 있는 제조물로 인한 물적·인적 손해에 대한 책임을 규정하는 제조물 책임법 또는 자율주행자동차의 경우 자동차손해배상보장법에 따라 자동차 운행자에게 책임을 물을 수 있다.
그런데 제조물 책임에서는 제조물의 개념상 소프트웨어나 프로그램이 물건이 될 수 없다거나 결함에 대하여 이른바 ‘개발 위험’의 항변으로 제조업자가 책임을 피해 가는 한계가 있을 수 있다. 또 자동차손해배상 보장법상의 책임을 물으려면 운행자의 자동차에 대한 운행 지배가 인정되어야 하는바, 자율주행 단계가 높아짐에 따라 운전자인 사람의 직접 통제가 안전을 위해 오히려 배제되고 자율주행 시스템이 운전을 주도하는 상황에 적절히 대응하지 못한다 할 수 있다. 즉 단계가 높아져가는 강한 인공지능 시대로의 이동에 대비하지 못하는 한계라고 볼 수 있는 것이다.6
(2) 앞에서 언급한 우리나라의 ‘로봇기본법’ 제정안은 이러한 인식하에 인공지능으로 인한 손해에 대한 책임 문제를 총괄적으로 다루고자 하는 것으로 보인다. 그리하여 제23조7에서 로봇의 제조자 및 공급자의 책임에 대하여 규정하고 있다. 그런데 이는 피해자가 가해자의 고의·과실을 입증하도록 하는 민법 제750조의 일반 불법행위와 달리, 로봇이 야기한 손해에 대하여 제조자에게 우선 손해배상책임을 지우고 이 책임을 면하고자 하는 제조자에게 피해자의 고의·과실을 입증하여 책임을 면하도록 하는 입증책임의 전환 형식을 취하고 있다. 민법 제758조는 공작물 소유자의 책임을 고의·과실과 무관한 책임으로, 이른바 무과실책임 규정을 두고 있다. 인공지능 로봇이 인공적 작업에 의해 제작된 물건의 범주에 드는 것으로서 공작물에 해당한다면 이 ‘로봇기본법’의 책임 규정은 민법 제758조 규정보다 약화된 규정이라 할 수 있다. 그리고 제조물 책임법 역시 무과실책임 규정으로 고의·과실과 무관한 책임 구조로 규정하고 있어 피해자 보호에 더욱 비중을 두고 있다고 할 수 있다. 다만 민법이 물건을 “유체물 및 전기 기타 관리할 수 있는 자연력(제98조)”으로 정의하고 있어 소프트웨어의 경우 제조물 책임법이 적용되는 제조물인 ‘물건’으로 볼 수 있는지 여부에 논란이 따른다. 이에 관하여 이를 긍정하는 학설, 부정하는 학설 등으로 대립하는 상태인데, 임베디드(embedded) 소프트웨어는 부품으로서의 제조물에 포섭된다는 관점에서 제조물 책임을 인정할 수 있을 것으로 생각된다.
그런데 이 ‘로봇기본법’에선 로봇의 개념에 ‘소프트웨어’를 포함하고 있어(제2조 제1호) 소프트웨어 인공지능 로봇이 물건 개념에 포함되는지에 대한 물음이 필요 없게 되었다는 점에서 의미가 있다. 하지만 무과실책임의 근거가 되는 위험책임 영역에 인공지능 로봇이 포섭되는지는 간단한 문제라 할 수 없다. 자율성을 갖고 스스로 자가 학습 능력(딥러닝)을 보유한 강한 인공지능의 경우 사람의 통제 영역 밖에 있다는 것을 감안하면 위험원이 된다는 점을 부인하기 어렵다. 로봇 제조자에게 로봇의 결함에 따른 손해에 대하여 무과실책임을 부담하게 하는 것은 로봇 사용자인 소비자를 두텁게 보호할 수 있다는 긍정적 부분과 로봇 제조자에게 과도한 책임을 부담시켜 로봇 생산을 위축시킬 수 있는 두 가지 측면이 있으므로 균형 있는 형량을 정해야 할 것이다.
(3) 이 ‘로봇기본법’은 이른바 결함 추정의 법리를 규정하지 않고 있다는 점에서도 제조물 책임법과 차이를 보인다. 우리 대법원은 결함 및 결함과 손해 발생 사이의 인과관계를 추정함으로써 제조업자 측에서 그 사고가 제품의 결함이 아닌 다른 원인으로 말미암아 발생한 것임을 입증하도록 하여 입증책임을 제조자에게 전환하여왔다.8 이러한 판례의 태도를 제조물 책임법 개정에 반영하여 2018년 4월 19일부터 시행하고 있는바, 인공지능 로봇이 고도의 과학기술 집약체라는 점을 감안하면 이와 같은 결함 추정의 법리가 적용되어야 할 것이다. 다만 “사고가 제조업자의 배타적 지배하에 있는 영역에서 발생하였다는 점(위 대법원 판례)” 또는 “손해가 제조업자의 실질적인 지배 영역에 속한 원인으로부터 초래되었다는 사실(제조물 책임법 제3조의 2, 제2호)”을 피해자가 입증하여야 하는바, 스스로 학습하는 능력을 가진 강한 인공지능의 경우 그 기술의 속성상 피해자가 이를 입증하는 것은 어려운 과제가 될 것으로 보인다.
(4) 결론적으로 우리 현행법이나 ‘로봇기본법’ 안에서는 제조자나 소유자, 운영자 등이 책임을 지는 것이지 아직까지 인공지능 로봇 스스로 배상책임을 지도록 하는 규정을 두고 있지는 않다. 하지만 장래 인공지능에 부여되는 법적 지위, 전자인간이 갖는 법인격의 범주가 어떻게 되는가에 따라 인공지능에 의해 야기되는 손해를 인공지능 스스로 어떻게 어느 범위까지 책임질 것인지가 정해질 것이다.
인공지능 환경에서 사고 책임에 관한 사회적 합의가 만들어지지 않은 현 상태에서 사고는 제조사의 책임(보험)과 피해자와의 개별 협상으로 처리되고 있다. 하지만 머지않아 제조사 차원에서 처리할 수 없을 정도로 소유자, 작동자, 설계자의 책임이 복잡하게 얽힌 사고가 일어나 특정 기업이 감당하기 어려운 차원의 광범한 피해가 발생할 수도 있다. 우리는 이제 이러한 위험에 대비할 필요도 있다. 인공지능으로 인한 사회적 위험을 분산하기 위하여 보험제도를 적극 활용함은 물론 보험만으로 보상할 수 없는 경우를 대비한 보상 기금 마련도 요구받을 것으로 보인다. 보험제도를 설계함에서는 위험의 발생 빈도와 보험 목적물의 가격에 따라 보험료를 산정하는 손해보험으로 대처할지 또는 목적물의 가격과 무관하게 장래 발생할지 모를 위험에 대비하는 의무적 책임보험을 도입할지에 대한 연구도 필요하다 하겠다.
AI에 대한 우리의 생활 속 활용도가 높아지면서 여러 법률적 이슈가 함께 제기될 것이다. 수많은 문제 가운데 인공지능의 자기 학습에 따른 자율적 판단에 어떤 정도로 법적 의미를 부여해갈 것인가가 핵심 문제로 떠오른다. 예컨대 인공지능이 만든 창작물을 “‘인간’의 사상 또는 감정을 표현한 창작물(저작권법 제2조 제1호)”과 같은 범주에서 보아 저작물로 인정할 수 있을 것인지, 부분 자율을 넘어 완전 자율에 이르게 되는 자율주행자동차의 운행 지배는 누가 하고 있는 것이며 책임의 귀속은 어찌 될 것인지, AI를 활용하여 여러 유형으로 이루어지는 재화 거래에 대해 사람과의 관계 속에 어떠한 법리가 동원되어야 할지 등 수많은 과제가 자연인과 같은 법적 지위를 AI에게도 부여할 것인지의 문제와 연결된다.
AI가 독립적 의미를 갖지 아니하고 인간의 지능을 확장하는 도구로서 기능할 뿐이라는 점에서 확장 지능(EI, Extended Intelligence)으로 불리기도 한다. 그러나 도구라 하여도 법에서 보는 물건의 모습과는 다른 특성을 가진 것은 분명하다. 자율적으로 움직이며 합리적으로 판단하여 스스로 결정할 수 있다는 점에서 인간과 유사성을 갖는 것으로 평가되기도 한다. 인공지능 기술이 발달되어감에 따라 권리 의무의 주체와 객체로 구분되는 이원론이 아닌 3원론 내지 별개의 법인격으로 다루어질 근거도 만들어질 것으로 보인다.
유럽의회는 강한 인공지능의 시대에 대비하여 미래지향적 개념의 전자인간을 제시함으로써 세간의 주목을 끌었다. 근대법이 자연인과 구분하여 법인 제도를 창설할 당시의 논란을 감안하면 새로운 제3의 법적 인격체로서 전자인격을 받아들이는 것도 낯설지 않은 날이 머지않아 오리라 생각된다. 다만 인공지능 로봇에게 인격을 부여하는 것은 인간의 우월적 지위를 유지하면서 지능형 로봇에 의하여 발생한 문제를 해결하는 일종의 도구로서 로봇에 대한 인격 부여를 선택한 것이 될 것이다. 법인에게 인격을 부여한 것이 법인 자체가 인격을 부여받을 만한 가치가 있어서가 아니라 일정한 필요에 의하여서였던 것과 같은 이유다. 그러한 점에서 ‘아시모프의 3원칙’ 틀 안에서 인공지능 기술의 발전이 이루어질 것이며 지나친 우려는 불필요하다고 본다.9
전자인간이 어느 범주에서 권리를 향유하고 자율적으로 결정한 부분에 대해 어떠한 책임을 지게 될지는 아직 법적으로 확정되지 아니하였다. ‘로봇기본법’ 제정안이 국회의 입법 절차를 거쳐 세상의 빛을 보게 되면 전자인간 개념은 현실이 되겠지만, 이 경우에도 “자율성을 가진 정교한 로봇의 경우 전자인간으로서의 법적 지위 부여”에 관하여는 앞으로 국가로봇윤리·정책위원회에서 심의, 의결할 사항으로 남겨진다(동법안 제9조). 전자인간에 대한 성형은 앞으로 계속 진화해갈 것이며, 지난 인류의 역사가 그래왔던 것처럼 법은 ‘자율성을 가진 정교한 인공지능’의 새로운 기술이 초래하는 미래의 사회 변화를 또다시 뒷받침하고 수용해갈 것이다.