2022.04.14 AI Framework

AI [Society] Framework | EP01. 옳은 선택이란 무엇일까요?

What is
the Right Thing to Do?

옳은 선택이란 무엇일까요?

‘전차 문제(Trolley Dillema)’는 다섯 명을 위해 한 명을 희생시킬 것인지, 한 명을 위해 다섯 명을 희생시킬 것인지 묻는 대표적 윤리 딜레마로 윤리의 기준이 모두에게 상대적임을 보여 줍니다. 어떤 상황에서는 명백하게 옳은 것처럼 보이는 일이 다른 상황에서는 옳지 않은 일로 여겨지듯 절대적 윤리 기준은 존재하지 않습니다. 인간조차 윤리 문제를 해결할 수 없는 한편, 우리는 인공지능에게 ‘윤리적 책임’에 대하여 묻고 있습니다. 윤리적 인공지능이란 무엇인가에 대한 답을 얻기 위해 우리는 무엇에 집중하고 어떤 논의를 나눠야 할까요? 인공지능으로 발생될 또 다른 딜레마와 다양한 잠재적 영향에 대비해 우리는 어떤 사회 구조적 대안을 만들어야 할까요?

[AI FRAMEWORK]는 인공지능과 인류의 미래를 고민하는 세계적인 석학들의 눈을 통해 ‘AI를 바라보는 새로운 관점’을 제시하는 엔씨의 새로운 콘텐츠 시리즈입니다. 엔씨의 AI Center 설립을 주도하며 첨단 기술의 윤리적 문제를 탐구해 온 윤송이 CSO가 공학, 정치학, 철학 등 각 분야의 리더들을 만나 서로의 생각과 관점을 나눕니다.

앨리슨 시몬스 교수님에 이어 대화를 나눌 인물은 미국의 철학자이자 MIT의 언어 및 철학과 학과장을 역임한 알렉스 번 교수입니다. 이번 편에서는 여러 윤리적 사례들을 바탕으로, 일상 생활 속으로 들어온 인공지능으로 인해 발생될 또 다른 딜레마와 다양한 잠재적 영향에 대비하기 위해서는 어떤 고민들이 필요한지에 대해 이야기 나눠 보겠습니다.

Songyee Yoon

엔씨소프트의 사장(최고전략책임, CSO)이자 북미 법인(NC West) 최고 경영자로 엔씨의 글로벌 사업 전략을 총괄하고 있다. 엔씨의 AI Center 설립을 주도해 AI와 NLP에 관한 다양한 연구 개발 성과를 기업 경영에 접목하고 있다. 특히 AI가 미치는 사회적 영향과 AI 윤리를 지속적으로 고민하며, 현재 미국 스탠퍼드 인간중심 AI 연구소(Human-Centered AI Institute, HAI) 자문 위원과 메사추세츠 공과대학(MIT) 이사회 이사로 활동 중이다.

Alex Byrne

미국 철학자이자 MIT 대학에서 언어 및 철학과 학과장을 역임하고 현재 철학 교수로 재직중이다. 오랜 시간 언어학과 철학을 연구하며 심리철학을 바탕으로 자기 인식과 인식론에 관심을 가지고 활발한 연구 및 저술 작업을 하고 있다.  2018년 “Transparency and Self-Knowledge”, 2021년에는 “Perception and Probability”를 집필했다.

The Trolley Problem

트롤리 딜레마

윤송이   AI 기술 윤리라는 흥미로운 주제로 대화 나눌 시간을 내주신 교수님께 진심으로 감사드립니다.

알렉스 번   저도 기쁩니다.

윤송이   교수님처럼 저명한 철학자와 이 주제로 이야기하게 되어 영광입니다. 교수님의 연구 관심사에 대해 말씀해 주시겠어요?

알렉스 번   네, 저는 MIT 철학 전공 교수이며 MIT의 언어 및 철학과(department of linguistics and philosophy)의 학과장으로 지냈습니다. 서로 다른 대학원 과정과 교수진을 갖춘 두 전공이 하나로 합쳐져 운영되는 것은 매우 드문 사례죠. 제 연구는 대개 심리 철학(philosophy of mind)을 중심으로 심리가 세상, 뇌 등과 어떻게 연결되는지를 연구합니다. 하지만 저는 사람이 자신의 정신세계를 어떻게 인지하는지에 대한 이론인 자기 인식(self-knowledge)에 대한 연구도 진행해 왔습니다. 그 주제로 책도 썼고요.  최근에는 ‘우리가 아는 것을 어떻게 알고 있는가(how we know what we know)’라는 주제의 학문인 인식론(epistemology)에 대해서도 관심을 가지게 되었습니다. 경력만 비춰본다면 저는 기술 윤리 전문가는 아닐 것입니다. 하지만 기술 윤리가 새롭게 떠오르고 있는 분야인 만큼 아직 전문가는 많지 않습니다. 그래서 제가 이 주제로 이야기를 나눠 볼 수도 있겠네요.

윤송이   철학과 언어학을 오랜 기간 연구하신 분으로서, 최근 이루어지고 있는 인간 상호 작용이나 기술 발전과 관련한 인공지능 분야의 발전과 확산에 대해 어떻게 생각하시나요?

알렉스 번   그동안 인공지능 분야에 엄청난 발전이 있었던 것은 사실이고, 이는 매일 우리 생활에 영향을 미치고 있죠. 인공지능의 발전은 로보틱스 분야에 큰 변화를 가져왔습니다. 인공지능 없이 로보틱스 기술은 구현이 불가능할 정도죠.

그리고 인공지능과 관련해서 철학자들이 특히 큰 관심을 보이는 분야로 자율 주행 차량 기술이 있습니다. 왜냐하면 MIT의 주디스 톰슨(Judith Thompson) 교수님이 제기한 유명한 ‘전차 문제(The Trolly Problem)’가 있거든요.

*각주1) 주디스 자비스 톰슨(Judith Jarvis Thomson, 1929년 10월 4일 ~ 2020년 11월 20일): 윤리학과 형이상학을 중심으로 연구한 미국의 철학자이다. 전차 문제(The Trolley Problem)에 대해 재해석하며 현재의 표준 형태를 만들어 냈다.

알렉스 번   전차 한 대가 선로를 따라 빠른 속력으로 달리고 있을 때 한쪽 선로에는 다섯 명의 사람이, 다른 쪽 선로에는 한 명의 사람이 묶여 있습니다. 아무것도 하지 않는다면 다섯 명은 모두 전차와 부딪혀 죽게 되고, 스위치를 당겨 전차의 방향을 바꾼다면 단 한 명만 죽게 됩니다. 스위치를 당겨도 되는지, 당겨도 된다면 그 이유는 무엇인지에 대해서는 아주 오래된 윤리학적 문제들이 있습니다.

사실 전차 문제에는 아주 복잡하고도 다양한 변형이 존재합니다. 그리고 아시다시피 이건 자율 주행 차량 소프트웨어 문제와도 연결됩니다. 자율 주행 차량이 어떠한 상황에 방향을 바꾸었을 때 자전거를 타고 있는 사람이 죽고 인도에 있는 다섯 명의 사람은 살게끔 프로그래밍이 되어 있는 것처럼 특정 상황에서 자율 주행 차량이 어떻게 반응하도록 프로그래밍을 해야 하는지 같은 문제 말입니다.

윤송이   전차 문제는 특히나 흥미로운 것 같습니다. 왜냐하면 사람들은 그런 결정적인 순간에 어떻게 결정을 내려야 할지 모르거든요. 최근에 저는 옳은 것과 그른 것을 구별하는 방법에 대한 책을 읽었어요. 저에게 옳은 것이 제 이웃이나 다른 대륙의 사람들, 혹은 다른 행성에 사는 사람들에게는 옳지 않을 수 있다는 내용이었습니다. 결국 우리도 옳고 그름을 알 수 없다는 거죠. 우리의 판단이 항상 객관적이지 않다는 것입니다.

윤송이   그렇다면 인공지능이 사회에 어떠한 방식으로 옳고 수용 가능하게끔 프로그래밍이 될 지 우리는 어떻게 기대할 수 있을까요?

알렉스 번   네, 굉장히 좋은 질문입니다. 그런데 사실 그 질문은 오래전부터 존재했습니다. 아이작 아시모프(Isaac Asimov)의 SF 소설을 읽으셨는지 모르겠지만, 읽으셨다면 아시모프의 로봇의 3원칙을 기억하실 거예요. 사실 저도 정확히 기억은 나지 않지만 아마도 첫 번째 원칙은 ‘사람을 해쳐서는 안 된다’일 것입니다. 이 원칙은 로봇이나 인공지능의 행동하는 방식을 제안하는 기초적인 원리가 되었고, 현재까지도 해당 주제에 대한 많은 논문이 나오고 있습니다. 아직까지 이에 대한 확실한 답은 나오지 않았고요.

*각주2) 아이작 아시모프(Isaac Asimov, 1920 1 2 ~ 1992 4 6): 미국의 과학 소설가이자 보스턴 대학교의 생화학 교수로 재직했다. 500 이상의 책을 집필했으며 아서 C. 클라크(Sir Arthur Charles Clarke), 로버트 A. 하인라인(Robert Anson Heinlein) 함께 공상과학 소설계에 3 거장으로 일컬어진다.

*각주3) 로봇의 3원칙: ▲로봇은 인간에게 해를 입혀서는 안 된다. 그리고 위험에 처한 인간을 모른 척해서도 안 된다. ▲제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다. ▲제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다.

알렉스 번   각 사회에서, 특히 민주주의 사회에서 무엇이 옳은 정책인지 모두의 합의를 얻기란 쉽지 않죠. 그 문제를 구체적인 윤리 문제로 범위를 좁힌다고 해도 마찬가지일 것입니다. 예를 들어 ‘이런 상황에서 정확히 옳은 결정이란 무엇일까?’, ‘윤리적인 관점에서 우리가 도입해야 하는 정책은 어떤 것일까?’ 아니면 ‘정의가 요구하는 것은 무엇일까?’ 같은 문제들처럼 말이죠. 부자에게서 돈을 빼앗아 가난한 사람들에게 주는 것이 정의로울까요? 만약 부자들이 다른 사람으로부터 돈을 훔친 게 아니라 정직하게 번 돈이라면 그들의 허락 없이 돈을 빼앗는 건 정의로운 일이 아니겠죠. 이는 정치 철학자들이 수 세기에 걸쳐 논의해 온 복잡한 문제들입니다. 저는 인공지능이 이런 종류의 새로운 문제를 야기한다고는 보지 않습니다. 결국 어느 순간 우리는 서로의 다름을 인정하거나, 앞으로의 방향에 대해 깔끔하지 못한 타협을 해야 할 때가 올 것입니다.

우연히도 송이 님께서 전차 문제와 매우 관련 있는 이야기를 꺼내셨는데요, 이는 이러한 문제가 얼마나 어려운지를 보여 주는 것 같습니다. 사람들에게 “당신이 전차 문제와 같은 상황에 놓였다면, 스위치를 눌러 다섯 명을 구하고 한 명을 희생시킬 건가요?”라고 묻는다고 가정해 보죠. 대부분의 사람들은 “네, 스위치를 눌러야겠죠. 스위치를 눌러서 한 사람이 죽겠지만 적어도 그 선택이 잘못된 선택은 아닐 거예요.”라고 말할 것입니다. 더 적은 수의 사람이 희생되는 쪽을 선택하는 게 더 나은 원칙으로 여겨질 수 있습니다. 그렇다면 그 원칙을 따르게 되겠죠. 그것이 원칙이 될 수 있겠지만 좀 더 생각해 보면 더 나은 원칙이 아닐 수도 있다는 걸 알게 될 것입니다.

여기 송이 님께서 들어 보셨을 법한 사례가 하나 더 있습니다. 매우 건강한 남자 한 명이 어머니를 뵈러 병문안을 왔다고 가정해 보죠. 병원에는 다섯 명의 사람이 있습니다. 그들 각각은 콩팥, 심장, 간 등의 장기를 필요로 하며, 장기를 기증받지 못하면 곧 죽게 됩니다. 어머니를 뵈러 온 이 무고한 남성의 배를 갈라서 다섯 사람에게 장기를 나눠 준다면, 우리는 한 사람의 희생으로 다섯 사람을 구할 수 있습니다. 하지만 다섯 사람을 구하기 위해 이 무고한 한 명을 죽여야 하냐고 묻는다면, 대부분의 사람들은 당연히 안 된다고 할 것입니다.

그러니까 더 많은 생명을 살리기 위해 소수를 죽이는 선택은 결국 원칙이 아닙니다. 원칙은 그보다 더 복잡한 것이죠. 그래서 윤리가 어렵다는 것입니다.

윤송이   맞아요. 이러한 문제는 사실 새로운 문제라기보다는, 우리 주위에 항상 존재해 온 문제입니다. 하지만 동시에, 우리의 일상에 큰 영향을 주는 소프트웨어나 서비스에 특정 윤리 기준이나 의사 결정 프로세스를 적용하는 대형 테크 기업들이 등장했습니다. 우리는 이 기업들이 특정 기준을 충족할 거라고 기대하고 있고요. 그러나 우리는 그 기준이 어디에서부터 비롯되었는지 명확히 짚어 낼 수 없어 어려움을 겪고 있습니다.

How to Manage the Risks of Adopting AI?

AI 시대의 딜레마, 문제 해결을 위한 출발선에서

윤송이   사회가 극도로 분열되고, 에코 체임버(echo chamber)가 생산되는 것 같은 상황은 기술의 성장과 사회적 합의 없이 광범위하게 활용되고 있는 특정 기준들과 연관 있는 것 같습니다. 그래서 저는 기술 도입으로 인해 발생하는 잠재적인 악영향을 최소화하기 위한 사회적인 합의가 시급하다고 생각합니다.

알렉스 번   그렇죠, 때로는 합의 유무가 문제가 아닌 경우도 있어요. 왜냐하면 합의가 이미 존재하기 때문이죠. 모두가 “음 이건 나쁜 짓이야.” 하고 동의하는 것들이요. 그럼에도 불구하고 나쁜 상황이 지속되는 이유는 이를 예방할 인센티브 구조가 없기 때문입니다.

예를 하나 들어 볼게요. 최근에 페이스북이 자사가 소유한 인스타그램에 특정 인공지능을 탑재했다고 추정되는 상황이 보도되었어요. 이 인공지능은 사용자가 과거에 둘러본 이미지나 관심 분야에 따라 다양한 이미지를 노출해 주죠. 이는 십 대들, 특히 십 대 소녀들의 정신 건강에 해롭다는 근거도 있습니다. 아이들이 자신의 외모나 다른 사람의 평가에 너무 신경을 쓰게 되는 등 신체 이미지와 관련된 문제를 일으킬 수 있다는 것입니다. 모두가 이건 나쁘다는 것을 인정합니다. 그 부분에 대해 전체적인 합의가 이루어진 것이죠.

알렉스 번   문제는 이러한 일을 어떻게 막느냐는 것입니다. 왜냐하면 이 일은 실제로 일어났고 페이스북도 이게 나쁜 일이라는 것을 분명히 알았습니다. 페이스북이 사용한 알고리즘이 어린 여성들의 정신 건강에 해롭다는 내부 연구 문건들이 있었지만 페이스북이 이를 사용하지 않도록 막을 효과적인 인센티브는 없었습니다.

그래서 저는 현재 인공지능과 관련된 많은 문제에는 사람들로 하여금 이게 나쁘거나 해로운 일이라고 동의하게 만드는 것보다 그러한 피해를 처음부터 방지할 수 있는 구조를 설치하는 것이 필요하다고 생각합니다.

윤송이   인센티브의 방향을 조정시켜야 한다는 말씀이시죠?

알렉스 번   네, 맞아요.

윤송이   네, 저도 동의하긴 합니다만 각 회사의 임원들과 대표의 경우에는 수탁자로서의 의무가 있습니다. 그들이 주주의 이익을 극대화할 행위를 하지 않을 경우에는 처벌하는 법률도 많을뿐더러 실제로도 수탁자로서의 의무를 위반하면 처벌을 받게 됩니다. 한편, 십 대 여자아이들의 정신 건강을 경시한 임원진을 처벌하는 법률은 존재하지 않는다는 것이죠.

알렉스 번   네, 바로 그것입니다.

윤송이   실제로 우리 사회에 현재 정책을 재검토하고 인센티브 구조를 변경시키라는 전반적인 요구가 존재하나요?

Are Humans Prepared to Coexist With AI?

인간과 AI, 공존을 위한 숙제

알렉스 번   네, 그건 저희가 MIT에서 가르치려는 기술 윤리와 관련 있습니다. 왜냐하면 많은 MIT 학생들이 앞서 말했던 소프트웨어 개발자가 될 것이고, 인스타그램 같은 회사에 취직할 것이기 때문이죠. 그래서 기술 윤리 교육은 페이스북 등에 취직하는 학생들이 자신이 하게 될 작업의 결과를 충분히 생각하도록 돕고 자신이 개발하는 기술의 결과에 대해 일종의 윤리적인 감각을 지니도록 하는 것이라고 생각하면 될 것 같아요. 이것은 분명히 도움이 될 것이라고 확신합니다. 하지만 송이 님이 말씀하신 것과 같은 이유로 기술 윤리 교육 이 문제를 완전히 해결하지는 못합니다. 사회적 딜레마나 집단적 행위 문제가 존재하기 때문이죠.

모든 개인이 선한 의도를 가진다거나, 다른 사람을 해칠 의도가 없다는 것으로는 부족합니다. 현실에서는 때때로 잘못된 인센티브 구조가 존재합니다. 그래서 모두에게 진정으로 도움이 되는 정책을 집단적으로 형성하는 것은 불가능합니다. 결국 기술 윤리 교육의 문제는 개인으로 하여금 윤리나, 윤리와 기술과의 관계에 대해 이해하게 하는 것 이상의 문제라는 것이죠.

어쩌면 기술 윤리 교육은 민주주의 사회에서 좋은 시민이 되고 이를 일종의 집단적 행위라고 깨닫는 시민들을 배출하는 것일 수도 있어요. 혹은 어떤 상황에서는 자유 시장 경제가 문제를 해결할 수도 있죠. 하지만 자유 시장 경제도 제대로 작동하려면 규제가 필요합니다. 결국 이것은 개인 차원의 문제가 아니라, 사회 전체적인 문제라는 것입니다.

윤송이   하지만 개인이 모여 사회를 만들잖아요.

알렉스 번   네, 당연히 옮은 말씀입니다. 제가 말씀드리려는 것은 윤리적인 학부생들을 배출하는 것만으로는 이런 문제를 해결할 수 없다는 것입니다.

윤송이   네, 제가 생각한 것보다 훨씬 더 어려운 문제네요.

*Any endorsements, views, opinions, and appearances shared by the interviewee are made solely in his/her/their personal capacity; MIT does not endorse this organization or its products or services.

TOP