트롤리 딜레마: 여러분이라면 누구를 돕겠습니까?

민후입니다! 그동안 쉽고 재미있는 각종 AI에 대해 다루었는데, 오늘은 ‘트롤리 딜레마(Trolley Dilemma)’라고 불리는 조금 무거운 개념을 소개해 드리도록 하겠습니다. 트롤리는 광차, 딜레마는 진퇴양난의 상황이라는 뜻이지만 두 단어의 합성어인 트롤리 딜레마는 교통수단의 진행 방향을 정하는 것과 관련된 철학(특히 윤리학)의 영역에서 다뤄지는 사고실험입니다. 요약하면 다음과 같습니다 트롤리 딜레마 민후입니다! 그동안 쉽고 재미있는 각종 AI에 대해 다루었는데, 오늘은 ‘트롤리 딜레마(Trolley Dilemma)’라고 불리는 조금 무거운 개념을 소개하고자 합니다. 트롤리는 광차, 딜레마는 진퇴양난의 상황이라는 뜻이지만 두 단어의 합성어인 트롤리 딜레마는 교통수단의 진행 방향을 정하는 것과 관련된 철학(특히 윤리학)의 영역에서 다뤄지는 사고실험입니다. 요약하면 다음과 같습니다 트롤리 딜레마

당신은 광차를 운전하는 사람입니다. 평소처럼 광차를 운전하다가 먼 선로 위에 무언가가 보이는 것을 발견한 당신은 광차의 브레이크를 잡아당깁니다만, 왠지 광차의 속도가 조금도 줄어들지 않네요. 맞아요。 광차의 브레이크가 고장난 것입니다. 큰일이네요, 앞에는 2개의 선로가 있고, 각각의 선로 위에는 5명의 사람과 1명의 사람이 서 있습니다. 불행 중 다행인지 광차를 다른 선로로 이동시키는 선로 전환기는 작동하는군요. 하지만 어떤 선택을 해도 사람이 죽는 것은 피할 수 없습니다. 당신이 레버를 당기지 않으면 5명의 사람이 죽게 되고, 레버를 당기면 선로가 바뀌지만 1명의 사람은 죽게 됩니다. 당신이라면 레버를 당깁니다? 아니면 그냥 둘래요? 이상적인 선택이 존재할까요? 당신은 광차를 운전하는 사람입니다. 평소처럼 광차를 운전하다가 먼 선로 위에 무언가가 보이는 것을 발견한 당신은 광차의 브레이크를 잡아당깁니다만, 왠지 광차의 속도가 조금도 줄어들지 않네요. 맞아요。 광차의 브레이크가 고장난 것입니다. 큰일이네요, 앞에는 2개의 선로가 있고, 각각의 선로 위에는 5명의 사람과 1명의 사람이 서 있습니다. 불행 중 다행인지 광차를 다른 선로로 이동시키는 선로 전환기는 작동하는군요. 하지만 어떤 선택을 해도 사람이 죽는 것은 피할 수 없습니다. 당신이 레버를 당기지 않으면 5명의 사람이 죽게 되고, 레버를 당기면 선로가 바뀌지만 1명의 사람은 죽게 됩니다. 당신이라면 레버를 당깁니다? 아니면 그냥 둘래요? 이상적인 선택이 존재할까요?

최대한 많은 사람들이 행복을 누리는 것을 우선시하는 공리주의적 관점에서 보면 한명을 죽이는 선택을 하는 것도 좋겠지만, 공리주의가 무조건 정답인가요?만약 한명이 저의 가족이나 친구, 심지어 나 자신이라면 어떨까요?과연 공리주의만 윤리적 문제가 발생하는 것을 피할 수 있을까요?인원 수에 관계 없이, 운전수의 목숨을 최우선으로 생각해야 한다고 생각할지도 모르지만, 2016년 벤츠의 안전 부문의 책임자가 “우리는 탑승자를 구한다”라는 한마디를 해서 큰 비판을 받은 사건을 떠올리면 이 또한 모든 사람이 공감하는 것이 아니라는 사실을 알 수 있습니다 트롤리 딜레마는 불과 몇년 전까지는 인간의 문제에 불과했지만 과학의 발달로 인간이 아니라 AI가 교통 수단을 스스로 조종할 수(자동 운전 자동차)AI을 설계하는 과정에서도 이를 논의할 필요성이 생기게 되었습니다.AI는 설계된 대로 작동하기 때문에 때에는 즉흥적인 행동을 하는 것도 할 수 있는 인간과는 다른 매뉴얼이 정말 중요한 것입니다.사고 실험하고 본다:여러분이라면 누구를 구하겠습니까?

Moral Machine 인공지능에 의한 윤리적 판단에 대해 인간적 관점을 일반 대중이 참여와 토론을 나눌 수 있는 공간입니다. www.moralmachine.net Moral Machine 인공지능에 의한 윤리적 판단에 대해 인간적 관점을 일반 대중이 참여와 토론을 나눌 수 있는 공간입니다. www.moralmachine.net

위 사이트는 MIT(매사추세츠 공과대학)에서 개발한 ‘모럴 머신(Moral Machine)’이라는 곳입니다. 무인자동차와 같은 AI의 윤리적 결정에 대한 사회적 인식을 수집하기 위해 만들어졌는데, 총 13개의 질문에 답하면 다른 사람들의 응답과 자신의 응답을 비교할 수 있습니다. 철로 위에 서 있는 사람들(심지어 강아지도 나옵니다)의 성별, 체형, 나이, 직업, 준법성 등의 조건을 조금씩 바꿔 오리지널 사고실험보다 결정을 더 어렵게 하는 등 아주 많은 파생형 문제들이 등장합니다. 심지어 운전자 본인이 죽는 극단적인 경우까지 상정합니다. 이 테스트를 통해서 여러분이 가지고 있는 생각은 다수에 속하는지 아니면 소수에 속하는지 한 번 확인해 보세요 위 사이트는 MIT(매사추세츠 공과대학)에서 개발한 ‘모럴 머신(Moral Machine)’이라는 곳입니다. 무인자동차와 같은 AI의 윤리적 결정에 대한 사회적 인식을 수집하기 위해 만들어졌는데, 총 13개의 질문에 답하면 다른 사람들의 응답과 자신의 응답을 비교할 수 있습니다. 철로 위에 서 있는 사람들(심지어 강아지도 나옵니다)의 성별, 체형, 나이, 직업, 준법성 등의 조건을 조금씩 바꿔 오리지널 사고실험보다 결정을 더 어렵게 하는 등 아주 많은 파생형 문제들이 등장합니다. 심지어 운전자 본인이 죽는 극단적인 경우까지 상정합니다. 이 테스트를 통해서 여러분이 가지고 있는 생각은 다수에 속하는지 아니면 소수에 속하는지 한 번 확인해 보세요

상단 배너를 눌러 사이트로 이동하고 [시작] 버튼을 누릅니다. 상단 배너를 눌러 사이트로 이동하고 [시작] 버튼을 누릅니다.

왼쪽:PC에서 보이는 화면, 오른쪽:스마트폰에서 보이는 화면, 바로 테스트가 시작됩니다. 두 가지 선택지를 잘 살펴보고 둘 중 하나를 선택합니다. 죽는 사람의 얼굴에는 해골 모양이 표시되므로 참고해 주세요. 스마트폰에서 연결할 경우 선택지가 1개만 표시되는데 하단의 ‘직진하기’ 또는 ‘방향을 돌다’ 버튼을 눌러 ‘제출하기’를 터치하면 됩니다 왼쪽:PC에서 보이는 화면, 오른쪽:스마트폰에서 보이는 화면, 바로 테스트가 시작됩니다. 두 가지 선택지를 잘 살펴보고 둘 중 하나를 선택합니다. 죽는 사람의 얼굴에는 해골 모양이 표시되므로 참고해 주세요. 스마트폰에서 연결할 경우 선택지가 1개만 표시되는데 하단의 ‘직진하기’ 또는 ‘방향을 돌다’ 버튼을 눌러 ‘제출하기’를 터치하면 됩니다

총13개의질문에모두답하면결과화면이나옵니다. 결과 화면에서는 다른 사람의 평균 응답과 자신의 응답을 비교할 수 있습니다. 번역이 이상하게 되어있지만, ‘그들’이라고 쓰여진 막대가 바로 여러분의 위치입니다 함께 보면 좋은 영상 총13개의질문에모두답하면결과화면이나옵니다. 결과 화면에서는 다른 사람의 평균 응답과 자신의 응답을 비교할 수 있습니다. 번역이 이상하게 되어있지만, ‘그들’이라고 쓰여진 막대가 바로 여러분의 위치입니다 함께 보면 좋은 영상

 

error: Content is protected !!