여러분은 만약 운전 중에 여러 사람을 위험에 빠뜨리는 상황이 발생할 경우 자신과 타인의 생명 중 하나만 선택해야 하는 순간에 직면한다면 어떤 선택을 할 것입니까?
나를 희생하고 남을 구할 것인지, 어떤 희생을 치르고 내 생명을 지킬 것인지 누구에게나 어려운 선택이 될 것입니다.
그렇다면 인공지능은 어떨까요?운전자와 다른 자동차나 보행자의 생명 중 어느 쪽을 먼저 지키려고 하는 것일까요?
오늘은 자율주행차에 대한 장단점을 이야기할 때 빠지지 않고 등장하는 위와 같은 골칫거리인 트롤리 딜레마에 대해 알아보겠습니다.
트롤리 딜레마가 뭘까요?트롤리 딜레마(Trolley Problem)라는 실험을 들어보셨나요? 열차가 선로를 따라 달리고 있고, 양쪽으로 갈라지는 선로에는 한쪽에 5명이 묶여 있고, 반대편에 1명이 묶여 있습니다. 우리에게는 열차 선로를 바꿀 수 있는 전환기가 있습니다. 5명을 구하기 위해 선로를 바꾸는 전환기를 당기면 좋겠지만 불행하게도 다른 선로에 있는 1명은 죽게 됩니다. 이것은 5명을 살리기 위해 1명을 희생하는 행위가 도덕적으로 용서되는지를 묻는 윤리적 실험입니다. 물론 대부분의 사람들은 선택을 위한 고민보다는 이런 까다로운 상황을 만든 출제자의 성격에 문제가 있다는 결론을 내리겠지만, 이런 이상한 실험들이 점차 인공지능 자율주행자동차와 밀접하게 연관되어 있는 문제입니다.
AI가 누군가를 죽이도록 설계된다?> MIT 기술 리뷰 중 자율주행차가 누군가를 죽이도록 설계되어야 하는 이유(Why Self-Driving Cars Mustbe Programmed to Kill).라는 논문이 있습니다. 이 논문은 자율주행차가 피할 수 없는 사고를 당했을 때를 가정해 문제를 제기합니다.A. 직진 시 10명을 치게 되는데 방향을 급격히 돌리면 해당 방향에 있던 1명을 치게 된다. B. 직진하면 보행자를 치게 되지만 급격히 방향을 바꾸면 운전자가 죽을 수도 있다. C. 그대로 직진하면 여러 사람이 크게 다치거나 사망하거나 급격히 방향을 바꾸면 운전자가 죽을 수도 있다.각각의 경우 자율주행차는 어떤 판단을 내려야 할까요? 자율주행 자동차의 경우 트롤리 딜레마를 포함해 주행 중 직면할 수 있는 다양한 상황에 따른 도덕적 결단을 사전에 프로그래밍해둬야 하기 때문에 문제가 더욱 복잡해집니다.
각기 다르게 적용하는 ‘도덕적 판단’> 2018년 10월 24일 세계적 과학저널 ‘네이처’에서는 미국 매사추세츠공과대학 미디어랩이 ‘도덕적 기계’라고 이름 붙인 온라인 조사 플랫폼을 통해 233개국 230만명을 대상으로 트롤리 딜레마를 조사.분석한 결과를 실었는데 도덕적 기계는 2016년 11월부터 2017년 3월까지 3961만개에 달하는 윤리적 선택에 대한 빅데이터를 수집했습니다. 자율주행차 AI의 윤리적 문제에 관한 역대 최대 규모의 연구입니다. 연구팀은 탑승자와 보행자의 성별과 숫자, 반려동물 동승 등을 조건으로 13가지 시나리오를 만들고 상황에 따른 응답자의 선택을 조사했습니다.설문 결과 대개 1. 남성보다 여성 2. 성인 남성보다 어린이와 임산부 3. 동물보다 사람 4. 소수보다 다수 5. 노인보다 젊은 사람 6. 무단횡단자보다 준법보행자 7. 뚱뚱한 사람보다 운동선수를 구해야 한다는 선택이 많았고 동서양 응답자의 선택 경향에서 차이가 두드러졌습니다. 서구권에서는 사람의 수가 많아 어린이나 작은 체구를 찾는 쪽을 선호했지만 동양권에서는 사람의 수와 상관없이 보행자와 교통 규칙을 지키는 것이 더 안전해야 한다는 선택을 했습니다.
<사람처럼 판단하는 AI로 학습> 안전과 법적 윤리적 측면에서 글로벌 기준이 명확히 마련되지 않으면 자율주행차의 완전 상용화는 어렵다는 시선이 있습니다. AI가 운행하는 차량이 더 안전하다는 믿음 자체가 잘못됐다는 지적입니다. 2016년 구글 웨이모 자율주행차는 차선 변경 도중 옆 차로 버스가 양보한다고 오판해 충돌사고를 냈고, 테슬라 모델S는 흰색 트레일러를 장애물이 아닌 ‘밝게 빛나는 하늘’로 인지하면서 브레이크를 밟지 않아 인명사고를 냈습니다. 잇따른 인명사고에 그동안 선점 경쟁을 벌여온 자율주행 업체들은 상용화 목표를 늦추는 분위기입니다. 자율주행 상용화는 운행기술, 교통법규, 소비자 선택이라는 세 고비를 넘어야 하는데 첫 단계인 기술로 안정성에 제동이 걸렸기 때문으로 분석됩니다. 자율주행 AI의 윤리적 문제는 사회적 합의만 없을 뿐 결국 차를 만드는 업체가 어떤 알고리즘을 짜느냐에 달려 있습니다. ‘딥러닝’ 기반 AI가 도덕관을 포함한 판단까지 스스로 학습하면 결국 사람의 판단과 다르지 않다는 주장입니다. 이에 사람 조작을 완전히 배제한 ‘레벨 5’ 수준의 자율주행차가 상용화되지 않을 것이라는 전망도 있습니다. 그 근거로 자율주행 업계의 한 관계자가 “탑승자가 운전석에 앉지 않고 자율주행차 운행에 전혀 개입하지 않게 되면 제조사는 사고의 책임을 완전히 져야 하는 입장이 된다”며 운전자에서 제조사로 보험비용이 전가되는 것에 부담을 느끼고 있다는 점을 들 수 있습니다.
자율주행차 윤리가이드라인> 2019년 12월 국토교통부는 ‘자율주행차 윤리가이드라인’을 발표했는데, ‘재산보다 인간 생명을 최우선으로 보호할 것’ ‘사고 회피가 불가능한 경우 인명 피해를 최소화할 것’ 등 권고적 기준이 나왔습니다. 또, 행위 주체를 설계자.제작자. 이용자.관리자, 서비스 제공자로 제시하였습니다. 이들이 지켜야 할 행위 준칙으로 투명성, 제어 가능성, 책무성, 안전성, 보안성 등을 언급했습니다. 국토부는 윤리가이드라인에 대한 의견수렴을 거친 뒤 초안을 수정했다.보완하여 최종안을 고시할 예정입니다. 전문가들은 “윤리적으로 상식적으로 이해할 수 없는 사안이 발생할 수 있는 자율주행 현실에 대한 인식 제고가 필요하다”며 해킹 방지와 사고 발생 이후 원인을 정확히 밝힐 수 있는 자율주행차용 블랙박스 의무 탑재 등의 방안을 강구할 것을 주장했습니다.
그동안 트롤리 딜레마가 자율주행자동차와 관련해 어떤 작용을 하는지 알아보고 현재 정부와 기업이 어떻게 대처하고 있는지 살펴봤습니다.
자율주행차가 상용화된다면 이런 가정은 이론이 아니라 우리 눈앞에서 펼쳐지는 현실이 될 것입니다.실제로 일어나기 전에 최대한 많은 사람이 공감할 수 있는 사회적 합의가 이뤄지길 기대하면서 글을 마치겠습니다.