김동희 변호사
김동희 변호사

<헬스포커스뉴스 칼럼/김동희 변호사>
인공지능의 인기는 마치 2000년대 ‘인터넷붐’을 연상케 한다.

인공지능이 뭔지는 잘 모르지만, 인공지능이라는 단어는 하루에도 몇 번씩 듣고 읽게 된다. 엄청난 인기가 아닐 수 없다.

구글의 어시스턴트, 아마존의 알렉사, 애플의 시리 등 대기업에서 만든 각 인공지능은 알고리즘이 거의 완성단계에 이르렀으며 본격적 산업 활동을 시작했다.

그 중 IBM의 왓슨 박사(IBM 의 창업자 토머스 J. 왓슨에서 따왔다고 한다.)는 의료계에 진출해 국내 병원에서 진료를 보고 있다.

인공지능이 연구실 문을 열고 나와 일상에서 기능하기 시작하면서 법학자들의 고민 또한 깊어지고 있다.

법은 기본적으로 수범자를 사람, 사람에서 확장된 회사로 전제하고 만들었기 때문에 뉴페이스를 어찌 대해야 할지 난감한 것이다.

새로운 인격인가? 아니면 종전의 물건과 다를 바 없는가? 그래서 최근 인공지능에 대한 법적 규율과 책임의 논의를 시작했으며, 국내외를 불문하고 그 논의는 걸음마 단계이다.

‘인공지능이 범죄주체가 될 수 있는가?’ 와 관련한 지금까지의 논의를 간략히 소개하고 결국 인공지능에 대한 고민은 철학 문제로 귀결된다는 점을 밝히고자 한다.

고전적인 형법에 따르면 범죄가 되는 것은 사람의 “행위”이다. 그러므로 인공지능이 범죄를 저지를 수 있으려면 최소한 형법적으로 의미 있는 행위를 할 수 있어야 한다.

두 번째로 인공지능의 범죄주체성을 인정할 수 있을 것인가에 대한 검토가 필요하다. 인간과 달리 인공지능은 도덕적 가치판단이 불가능하다.

전통적인 법철학에 의하면 인간을 범죄주체로 보고 처벌할 수 있는 것은 그가 금지된 상황을 인식하면서도 사회반가치적인 목표를 달성하기 위해 나아간 것에 대한 비난이 가능하기 때문이다.

그러므로 지금의 법철학에 의하면 인공지능은 범죄를 수행하는 주체가 된다고 보기가 어렵다.

그러나 인공지능에 대해 아무런 형사적 규율을 하지 않을 경우 처벌의 공백이 우려되고, 향후 개발될 인공지능은 인간의 자율신경계와 유사하게 외부상황 인식, 의사 결정의 시스템을 갖출 것이므로 범죄수행이 가능할 것이라는 견해도 있다.

인공지능이 범죄의 주체가 될 수 있고, 인공지능의 구체적인 행위가 형법상 유의미해 처벌대상이라고 하더라도 마지막 관문이 남는다.

인공지능을 어떻게 처벌한다는 말인가? 형벌이란 응보효과와 함께 재범하지 않도록 하는 예방적 효과를 목적으로 한다. 그런데 생명형ㆍ자유형ㆍ재산형 등의 형벌을 인공지능에 대해서는 그대로 적용할 수가 없다.

인공지능에게는 삶에 대한 의지가 없으므로 사형ㆍ자유형이 의미를 가지기 어렵다. 인공지능을 담은 그릇인 컴퓨터나 무인자동차를 해체한다고 한들 그것이 사형ㆍ자유형과 같은 의미라고 볼 수 없다. 재산권이 없으므로 벌금형을 내릴 수도 없다.

이와 같이 종전의 형법을 적용하게 되면 인공지능에 대한 형사책임을 묻는 것은 불가능하다.

하지만 인공지능이 인간의 생활에 밀접하게 기능할 것을 고려하면 형사책임에 대한 사회적 필요성이 대두될 것인바, 이론상 불가능하다는 간단한 대답으로 넘길 문제가 아니다.

이러한 이유로 인간만이 그 대상이 되던 형법과는 완전히 다른, 새로운 형법관이 필요하다는 공감대가 형성되고 있다.

그러나 아직 논의는 초기 단계에 불과한데, 그 누구도 아직 자기인식, 학습, 판단, 결정까지 가능한 ‘강한 인공지능(strong AI)’이 어떤 모습일지 모르기 때문이다.

더욱이 인공지능에 대한 연구가 아직 완성 단계가 아니고 그 속도가 너무 빨라 규제가 따라가기 어려운 한계도 있다.

그래서 법학자들은 인공지능에 대한 규제를 논하기보다 ‘인간은 무엇이며 기술과의 관계는 어떠한가?’라는 기술철학 문제를 우선 살펴봐야 한다고 말한다.

인공지능에 대한 인문학적 연구는 결국 ‘인간이 무엇인가’ 라는 철학적 논의로 귀결된다는 것이다.

네덜란드의 기술철학자 Peter-Paul Verbeek은 기술의 발전으로 인해 인간의 신체 내외부로 기술과의 경계가 모호해지고 있음을 지적하며(예를 들어 인공고막기술은 인간의 귀에 들어가 청력을 형성한다), 인공지능에 대한 인간의 태도는 ‘중개’라는 새로운 관계를 맺어 더 좋은 삶으로 나아갈 수 있다고 한다.

국내 몇몇 병원에 도입된 닥터 왓슨은 도입 초기 암을 진단하고 치료법을 제시하는 새로운 인공지능으로 인기를 모았다.

그러나 왓슨의 ‘강력추천’ 치료법과 의료진의 결정 일치율이 56% 정도밖에 되지 않는 점, 보험처리상의 문제 등으로 인해 그 인기가 사그라지고 있는 중이다.

왓슨의 의견일치율이 보여주듯 현 단계의 인공지능은 인간의 개입과 중개로 결과를 수정해주어야 한다.

그러나 인공지능과 인간의 상호작용을 통해 인공지능의 학습속도는 더욱 빨라지게 되고, 의료진과의 의견일치율 또한 높아지게 될 것이다.

기술의 개발에 따라 인공지능 닥터에 대해 의료상 과실을 인정할 수 있을지, 과실이 인정된다면 어떤 책임을 물어야 할지 등 법학계의 논의도 점차 심화될 것이다.

저작권자 © 헬스포커스뉴스 무단전재 및 재배포 금지