Why Self-Driving Cars Must Be Programmed to Kill

왜 무인 자동차는 사람을 죽일 수 있도록 설계되어야 하는가

무인자동차의 시대는 점점 더 가까워지고 있으며, 이러한 자동차들은 사람이 운전하는 것보다 더 안전하고, 쾌적하고, 더 효율적일 것이다. 하지만 그렇다고 해서 무인자동차가 모든 위험에서부터 자유로운 것은 아니다. 때문에 사고를 피할 수 없는 상황에서 무인 자동차가 어떻게 대응하도록 프로그래밍되어야 하는지는 어려운 문제이다. 예를 들어, 여러 명의 사람을 죽일 수 밖에 없는 상황에서 무인자동차는 탑승자의 생명을 구하기 위해 많은 사람들을 죽여야 할까, 아니면 인명 피해를 줄이기 위해서 차라리 탑승자의 죽음을 택해야 할까? 이러한 질문에 대한 대답은 무인자동차가 우리 사회에서 자리 잡는데 큰 영향을 줄 수 있다. 일반적으로 사람들은 이러한 질문에 인명피해를 최소화하는 – 설령 그게 운전자를 의미할지라도 – 실용주의 적 의견을 더 많이 선택했는데, 정작 자신은 그 운전자가 되고 싶어하지는 않았다. 또한 만약 사람들이 운전자가 피해를 입을 수 있다는 이유로 무인 자동차를 기피한다면, 역설적으로 사람이 운전하는 차들이 많아지면서 전체 피해자 수는 궁극적으로 더 늘어날 수 있다. 이러한 질문은 사실 무인자동차 시대에 맞닥뜨리게 되는 가장 기본적인 윤리적 이슈이며,  더 늦기 전에 알고리즘의 윤리성에 대한 심각한 고민이 필요하다.

tN 인사이트: 무인자동차 개발에 앞장 서고 있는 기업 중 하나인 테슬라 (Tesla)의 CEO 엘론 머스크는 2020년까지는 완전한 무인 자동차가 나올 것이라고 주장한 바 있는데, 실제로 무인 자동차가 보편화되기까지 기술적인 난제보다는 이러한 도덕적인, 혹은 사회적인 난제에 대한 합의에 이르기까지 걸리는 시간이 더 소요될 수 있다. 예컨대 무인자동차가 사고를 냈다면, 이를 과연 ‘운전자’의 책임이라고 할 수 있을까? 라는 질문에서부터, 기사에 나왔던 것처럼 피할 수 없는 상황에서 무인 자동차에게 ‘누구를 죽일 것인지’에 대한 선택을 맡길 수 있는지, 혹은 운전자가 각기 다른 알고리즘을 선택하도록 허용할 수 있는지, 그럴 경우 법적 도덕적 책임은 어떠한지 등에 대한 다양한 고민과 논의가 필요할 듯 하다. 기술이 발전함에 따라 인류에게 새로운 가능성을 열어주고 편리하게 만들어주는 측면도 분명히 있지만, 그 기술이 가지는 영향력과 함의가 클 수록 기존 사회와 통합되기 위해서는 그만큼 많은 진통과 논란이 필요하지 않나 생각된다. 향후 인공지능과 로보틱스 기술이 발전됨에 따라, 우리는 점점 더 이러한 질문을 더 많이 맞닥뜨리게 될 것이다. 우리는 과연 로봇에게 우리의 생명을 맡길 수 있을까, 혹은 정말 더 진보된 기술의 발전으로, 이러한 고민조차 하지 않아도 되는 시대가 올까?

관련 기사: MIT Technology Review