핫게 실시간 커뮤니티 인기글
(1879540)  썸네일on   다크모드 on
븟다 | 22/09/14 23:41 | 추천 27

누구를 죽일 것인가?(feat 자율주행) +21

원문링크 https://www.ilbe.com/11439195773




누구를 죽일 것인가?
트롤리 딜레마 (Trolley Problem)이라는 실험에 대해 들어보신 적 있으신가요? 열차가 선로를 따라 달리고 있고, 선로 중간에서는 인부 다섯 명이 작업을 하고 있습니다. 그리고 당신 손에는 열차의 선로를 바꿀 수 있는 전환기가 있습니다. 다섯 사람을 구하기 위해서 선로를 바꾸는 전환기를 당기면 되지만, 불행하게도 다른 선로에는 인부 한 명이 작업을 하고 있는 중입니다. 다섯 명을 살리기 위해서는 선로 전환기를 당기면 되지만, 전환기를 당길 경우 다른 선로에 있는 인부 한 명은 죽게 됩니다. 이는 다섯 명을 살리기 위해 한 명을 희생시키는 행위가 도덕적으로 허용될 수 있는지를 묻는 윤리학 실험입니다.

 


01
01


 
이런 실험이 인공지능과 무슨 상관이 있냐고 의아하실 수도 있습니다. 하지만 트롤리 딜레마는 곧 다가올 인공지능 자율 주행 자동차 상용화와 밀접하게 관련되어 있는 문제입니다.
MIT 테크놀로지 리뷰 중 “자율 주행 자동차가 누군가를 죽이도록 설계되어야 하는 이유 (Why Self-Driving Cars Must be Programmed to Kill.”)이라는 논문이 있습니다. 이 논문은 자율 주행 자동차가 피할 수 없는 사고를 마주했을 때를 가정하며 문제를 제기합니다. 가정 상황은 다음과 같습니다.
 

02
02 

A. 직진 시, 10명을 치게 되지만, 방향을 급격히 꺾으면 해당 방향에 있던 1명을 치게 된다.

B. 직진하게 되면 보행자를 치게 되지만, 급격히 방향을 바꾸면 차에 타고 있는 본인 1명만 크게 다치거나 죽게 된다.

C. 그대로 직진하면 여러 사람이 죽거나 다치고, 급격히 방향을 틀면 차에 타고 있는 본인만 죽거나 다친다.


 

각각의 경우 자율 주행 자동차는 어떤 판단을 내려야 할까요?
자율 주행 자동차의 경우 트롤리 딜레마를 포함해 주행 중 맞닥뜨릴 수 있는 여러 상황에 따른 도덕적인 결단을 사전에 프로그래밍해 놓아야 하기 때문에 문제가 더더욱 복잡해집니다.

2018년 출시된 플레이스테이션 게임 ‘디트로이트 비컴 휴먼 (DETROIT Become Human)’에서는 이에 대해 섬뜩한 해답을 제시하고 있습니다. 주인공 중 하나인 인간 여성형 안드로이드는 집을 청소하는 중 e-book 스크랩을 발견하게 됩니다. ‘생명의 값’이란 제목의 스크랩 내용을 요약하자면 다음과 같습니다. 무인 차량이 사고를 예견할 경우 인공지능이 보행자/탑승자 등의 나이, 성별, 예상 수명, 혼인 여부, 고용 기록, 자녀의 존재 여부, 사회적 기여도 등의 각종 빅 데이터를 수집/분석하여, 이를 토대로 사람의 가치를 측정하고 가치값이 적은 쪽을 죽이도록 프로그래밍한다는 것입니다.
예를 들어 자율 주행 자동차가 왼쪽으로 꺾으면 의사 한 명이 죽게 되고 직진을 하게 되면 사형수 5명이 죽는 상황일 시, 인공 지능은 후자를 선택할 수 있다는 것입니다.
비록 이 섬뜩한 예시는 게임에서 제시된 것에 불과하지만 자율 주행 자동차는 언젠가 현실에서 상용화될 것입니다. 과연 자율 주행의 현실화가 얼마 남지 않은 지금, 미래의 인공지능 자율 주행 자동차는 어떤 선택을 하게 될까요?




우리 베충이들은 가치값이 적은 쪽이노...?ㅋ
[신고하기]

댓글(0)

이전글 목록 다음글

제목 내용