The-K Magazine
Monthly Magazine
April 2022 Vol.56
배움 더하기 아이콘 이미지

배움 더하기

미래 잡(job)자

인간과 로봇의 평화로운 공존을 이끄는

로봇 윤리학자

로봇이 우리의 삶에 직접적인 영향력을 미치기 시작하면서 전문가들은 로봇이 가져올 부정적인 영향력에도 관심을 두기 시작했다. 공상과학(SF)영화에서 보았던 로봇이 인간에게 적대적인 자아 를 가지거나 명령을 잘못 이해해서 인간에게 위해를 끼칠 수 있다는 우려를 하게 됐고, 로봇 도입 에 따른 노동자 대량 실직 같은 문제들이 미래의 인류를 위협할 수도 있다는 예측을 하게 된 것이 다. 이러한 로봇의 부정적 요인에 대해 윤리적인 판단 기준을 세우고, 향후 로봇 기술이 어떠한 방 향으로 나아가야 할 것인가에 대해 고민하는 '로봇 윤리학자'가 필요하다는 목소리가 높아지고 있 다. 로봇 윤리학자의 정의와 향후 기대되는 역할에 대해서 알아본다.

한국직업능력연구원 한상근 선임연구원

로봇 윤리의 바이블 ‘애시모브’의 3원칙

뛰어난 공상과학(SF) 소설가 아이작 애시모브(Isaac Asimov)는 로봇 3원칙을 제시한 바 있다.
➊ 로봇은 사람에게 해를 끼쳐서는 안 되며, 행동하지 않음으로써 인간에게 해가 가도록 해서는 안 된다.
➋ 로봇은 1원칙에 상충하는 경우를 제외하고는 인간의 명령에 따라야 한다.
➌ 로봇은 1·2원칙에 어긋나지 않는 한 스스로 보호해야한다.
1942년 로봇 윤리에 관한 고전이자 바이블 역할을 한 애시모브의 3원칙이다. 하지만, 이제 근본적으로 그 윤리 강령은 업데이트가 요구되고 있다. 애시모브가 3원칙을 발표한 1942년과 현재는 로봇과 인공지능의 발전 수준이 천지 차이이기 때문이다. 애시모브가 로봇 윤리에 관한 기본적인 문제를 제기했다면, 현재는 정책과 산업 측면에서 구체적 정책 대안까지 제시되어야 하는 시점이다. 로봇이 상용화되는 현대 사회에서 크고 작은 의사결정의 원칙이 되는 근본적인 가이드를 제시하는 사람들이 바로 로봇 윤리학자이다.

‘윤리적 딜레마’ 해결을 위한 기준을 제안하는 사람

그렇다면 로봇 윤리학자가 실제로 판단해야 할 문제들에는 어떤 것들이 있을까?
운전자의 도움 없이 목적지까지 스스로 가는 자율주행 자동차가 기대되고 있다. 기술적으로는 상당히 진전되어 상용화를 목전에 둔 상황이다. 운전자의 개입이 전혀 필요 없는 수준의 기술이 상용화될 것이라는 계획을 언론 보도를 통해 접하기도 한다.
그러나 기술 수준에서 자율주행 자동차의 기술 개발이 완료되어도 넘어야 할 높은 산이 하나 있다. 인공지능을 둘러싼 윤리 문제다. 대표적인 예를 이른바 ‘트롤리 딜레마(Trolley Dilemma, 광차 문제)’에서 찾을 수 있다.
트롤리 딜레마는 자율주행 자동차에도 적용된다. 자율주행 자동차가 그대로 주행하면 무단 횡단하는 여러 사람이 사망할 수 있는데, 우측으로 회전하면 인도에 있는 단 한 명만 죽는다. 이 상황에서 무고한 한 명의 생명을 앗아가는 것이 정당한가? 또는 여러 명의 행인을 살리기 위해 자동차에 타고 있는 사람의 목숨을 버려야 하는 상황이 오면 어떻게 할 것인가? 이는 매우 어려운 선택의 문제다.
인공지능 시대에 윤리 문제가 매우 중요한 이슈가 되고 있다는 점을 자율주행 자동차의 이러한 윤리적 딜레마에서 확인할 수 있다. 지능형 로봇과 인공지능이 일상생활에 깊이 들어오면서 누군가는 로봇과 인간의 관계를 여러모로생각하고 새로운 기준을 세워야 하며 그것은 모두가 납득할 수 있는 설득력을 갖추어야 한다.

로봇의 행동 규범을 만드는 도덕·윤리 담당

로봇 윤리학자들은 로봇을 개발할 때 로봇 작동과 관련한 윤리 기준은 물론 로봇을 이용하고 활용할 때 사람들이 지켜야 하는 윤리 기준을 제시한다. 로봇이 사고를 치거나 문제를 일으킬 때 이와 관련한 대응 원칙을 제시하는 것도 로봇 윤리학자의 몫이다.
인간이 윤리적으로 바람직하지 않은 질문을 로봇에게 던졌을 때 그 답을 찾아내고 그 답을 로봇을 만드는 원칙과 기준으로 삼는 연구도 해야 한다. 한마디로 로봇이 지켜야하는 행동 규범을 만드는 사람이라고 말할 수 있다.
로봇이 작동해 발생한 결과에 대한 도덕적인 관점의 판단 기준을 만들어서 인간 사회에서 발생할 수 있는 로봇의 윤리적인 문제들을 사전에 예방하는 것도 매우 중요한 역할이다.
로봇 윤리학자는 로봇과 인공지능 기술에 대한 기본적 이해가 있어야 한다. 그리고 철학과 윤리학에 대한 이론적 지식도 갖춰야 한다. 로봇 윤리학자가 되려면 대학에서 전자공학, 법학, 윤리학, 철학, 로봇학 등을 전공하고 석사·박사 학위를 취득해야 한다. 합리적인 사고 방식을 갖고 인간에 대한 존엄성을 중시하며 소통을 통해 갈등을 해결할 수 있는 능력도 요구된다.

로봇과 인간의 평화로운 공존을 준비할 때

인공지능과 로봇의 비약적 발전에 따라 관련 정책과 법률을 만들려는 시도가 지속되고 있고 로봇 윤리를 연구하는 학자들도 많아졌다. 특히 기업에서는 사업적 목적 아래 인공지능이나 로봇의 윤리 문제를 다뤄야 하는 상황들이 늘어나면서 로봇 윤리학자들의 역할과 요구가 커지고 있다.
코로나19 사태 이후 비대면 활동의 증가로 로봇 수요도 늘고 있고 전 연령대로 로봇과의 접점이 확대될 전망이다. 특히 어린 학생들과 로봇의 소통에서 일어날 수 있는 윤리·도덕적인 문제점들을 점검해야 한다는 목소리도 커지고 있다.
로봇과 인간이 함께하는 삶은 우리 곁에 가까이 다가와 있다. 로봇과 인간의 관계를 근본적으로 연구하고 평화로운 공존을 이끄는 로봇 윤리학자들의 역할은 앞으로 더욱 주목받게 될 것이다. 케이 로고 이미지