AI 로봇의 반란을 막는 방법이 있을까?
본문 바로가기
인공지능(AI)

AI 로봇의 반란을 막는 방법이 있을까?

by 동도리동동 2023. 2. 15.
반응형

영화와 게임 속 AI의 반란

영화 <아이, 로봇>에서는 로봇이 인간과 어울려 살아가는 미래 사회를 배경으로 하고 있습니다. 인간은 생활의 거의 모든 부분에서 AI 로봇의 도움을 받으면서 살고 있습니다. AI 로봇이 요리 하고, 아이를 돌보며, 집안일 등을 도와주는 것이 당연한 사회입니다. 그러던 어느 날, 모든 로봇이 사람들을 공격하고, 통제하기 시작하면서 이야기가 시작하게 됩니다. 

 

게임 <디트로이트: Become Human>에서도 이와 비슷한 사건이 발생하게 됩니다. 기계가 인간보다 더 높은 지능을 가진 미래에서, AI 로봇은 어린아이를 인질로 잡으면서, 경찰들을 공격하기도 합니다. 인간의 명령에 복종해야 할 것만 같던 AI 로봇들이 자신의 존재를 위해 거짓말도 하고, 사람을 공격하며, 로봇의 권리를 위해 시위도 하게 됩니다. 이번 포스팅에서는 AI가 반란을 일으키지 않고, 인간과 공존하기 위한 규칙에 대해서 알아보도록 하겠습니다. 

 

영화 <아이,로봇>과 게임 <디트로이트: 비컴 휴먼>의 일부 장면

 

 

AI의 반란을 막는 방법?

AI 로봇이 원활하게 인간을 보호하고, 생활을 도와주기 위해서는 어떻게 해야 할까요? 단순히 AI 로봇을 만들지 말아야 한다는 것은 이제 있을 수 없습니다. 과학과 기술이 발전하면서, 속도가 늦춰질 수는 있지만, 인간보다 뛰어난 AI가 등장하지 않을 수가 없게 되었기 때문입니다. 

 

그렇다면, 인간을 보호한다는 원칙을 제정하여, 이를 AI 로봇에 프로그래밍 단계부터 개발하는 것은 어떨까요? 실제로 이런 아이디어를 바탕으로, 3가지 원칙을 제정하는 것이 등장했는데요. 바로 "로봇 3원칙"입니다. 

 

 

로봇 3원칙이란

"로봇 3원칙"이란 다음과 같습니다. 

  1. 로봇은 인간을 해치거나, 인간에게 해가 되는 행위를 할 수 없다. 
  2. 로봇은 인간이 내리는 명령들에 복종해야 한다. 단, 1번 원칙에 위배될 경우에는 예외로 한다. 
  3. 로봇은 자신의 존재를 보호해야 한다. 단, 1번과 2번 원칙에 위배될 경우에는 예외로 한다. 

 

이 원칙은 미국의 소설가, 아이작 아시모프(Isaac Asimov)에 의해 세상에 처음으로 등장하게 되었는데요. 자신의 소설 <아이, 로봇 (1941년)>에서 처음으로 등장했습니다. 이 3원칙은 과학자들이 반드시 지켜야 하는 법이나 국제기구에서 만든 국제법의 개념이 아니라, 소설 속의 설정일 뿐입니다. 하지만, "AI 로봇은 반드시 그 목적이 인류를 위한 방향으로 행동해야 한다"는 의미를 담아내기에는 충분하고 견고한 원칙으로 여겨집니다. 

 

어쩌면, 이 "로봇 3원칙"은 세상에서 제일 유명한 AI 관련 원칙일 수도 있습니다. 수많은 작품 중 특히 영화나 게임같이, 미래 사회를 배경으로 하는 작품에서 활용이 많이 되었습니다. 최근 넷플릭스(Netflix) 시리즈에서도 "로봇 3원칙"을 활용한 드라마인 <그녀, 안드로이드(Better than us)>가 등장하기도 했습니다. 이 작품에서는 시즌1, 첫 장면에서부터 "로봇 3원칙"을 읽으며 시작하는데요. 이 장면이, 영화의 큰 줄기가 AI 로봇과 관련되어 흘러갈 것이라는 인상을 주기에 충분했다고 생각합니다. 

 

우리나라에서도 이 3원칙을 활용한 사례가 있습니다. 2006년 산업통상자원부에서 '로봇 안전 행동 3대 원칙'이라는 이름으로 '서비스 로봇이 갖춰야 할 안전 지침'을 만들어, KS규격으로 제정했다고 합니다. 여기에는 인간 보호와 명령 복종, 로봇 자기 보호에 해당되는 아시모프의 "로봇 3원칙"의 핵심 내용을 그대로 반영했습니다.

 

당시 산업통상자원부의 최갑홍 원장에 따르면, 인간과 로봇의 미래 공존 사회의 안전성 확보를 위해, 서비스 로봇이 갖추어야 할 안전 사항과 설계 및 제조상 안전 지침을 개발했다고 밝혔습니다. 서비스로봇에 대한 수요가 날로 증가하고 있으나, 가정이나 사무실 내에서 사용되기 때문에 사람과의 충돌, 오작동 등 다양한 안전사고의 발생 우려가 높아 로봇의 안전성은 중요한 사회적 이슈로 떠오르는 배경 때문에 이를 고려했다고 합니다. 

 

 

 

로봇 3원칙은 완벽할까?

어떤, 로봇 공학자들은 "로봇 3원칙"만 있으면, "로봇이 인간에게 절대로 덤빌 수 없다"라고 말합니다. 이들의 말처럼 "로봇 3원칙"은 간단하고 명료해 보이지만, 허점이 많은 원칙입니다. 영화 <아이, 로봇>에서도 로봇 3원칙이 있지만, AI의 반란이 일어났었고, 아시모프의 소설 속 작품에서도 로봇 3원칙의 빈틈을 활용해서 사건을 전개하는 방식을 사용하고 있습니다. 

 

3원칙 중, 제1원칙인 "로봇은 인간을 해치거나, 인간에게 해가 되는 행위를 할 수 없다. "만 봐도, 허점이 드러나 있습니다. 바로, 개인에 초점을 맞추냐, 인류에 초점을 맞추냐에 대한 문제인데, 다음과 같이 예를 들면 이해가 쉬울 것 같습니다. 

 

만약에 개인의 인간을 구하는 것이 인류 전체로 봤을 때 해가 된다면, 로봇은 어떻게 판단 내려야 할까요? 영화 <아이, 로봇>에서는 초인공지능 "비키"가 이 질문에 대해, 인류를 지키기 위해서는 개인의 희생은 필요하다고 판단을 내렸습니다. 그 결과, AI 로봇들은 사람들을 공격하고, 통제하기 시작하죠. "인간을 지켜야 한다. "라는 제1원칙의 개념을 폭넓게 해석하면서 발생한 결과라고 볼 수 있습니다. 이러한 판단은 AI 시스템 입장에서는 인류를 지켜내기 위한 정당한 행위라고 인식을 할 것입니다. 

 

만약에 반대로, 인류가 아닌 개인에게 초점을 맞추게 된다면 어떨까요? 이렇게 된다면, 테러리스트나 범죄자의 경우에도 AI 로봇은 그들을 지키기 위해 행동하게 됩니다. 따라서, "로봇 3원칙"을 어떻게 해석하는지 그 관점으로 인해, 우리가 원하지 않는 대로 AI 로봇이 동작할 가능성이 충분합니다. 

 

 

마무리하며, 

AI가 지금처럼 계속해서 발전한다면, 언젠가 초인공지능이 사회에 등장하는 시기가 올 것입니다. 그때가 되면, 인간과 AI 로봇이 공존할 수 있는 규칙들이 있어야, 우리 인류가 안전하고 편리하게 생활할 수 있습니다. 이를 위한 규칙 중, "로봇 3원칙"에 대해서 알아보았습니다. 여러 가지 빈틈이 보이는 원칙이지만, 인간을 지키고, 편안한 삶을 누리기 위한 고민이 녹아있는 원칙이라고 생각하면 될 것 같습니다. 

 

인간이 윤리 문제를 다룰 때 주로 나오는, "트롤리 딜레마(Trolley dilemma)"가 있습니다. 선로 위의 다수를 희생시킬지, 소수를 희생시킬지 선택해야 하는 문제인데요. 이렇게 딜레마가 가득해서, 인간에게도 어려운 '윤리'라는 것을 로봇에게도 학습시키는 연구가 진행되고 있다고 합니다. 앞으로 미래 사회에서는 인간과 AI 로봇이 어떻게 공생하게 될지 기대해 봐도 좋습니다. 

 

 

 

 

반응형

댓글