2021.06.10 AI Framework

AI [Education] Framework | EP01. AI 시대 인문학자의 역할

The Role of the Ethicist
in the Era of AI

The Role of the Ethicist
in the Era of AI

AI 시대 인문학자의 역할

첨단 기술의 패러다임하에 재편될 세계는 ‘얼굴 인식 기술’, ‘단말기 간 암호화 플랫폼’과 같은 기술로 개인의 사생활 보호와 국가의 안보가 상충하는 등 이전까지 생각하지 못했던 그리고 생각할 필요가 없었던 문제들이 제기되고 있습니다. AI 기술이 점점 더 상용화되면서 어떤 문제가 발생할 가능성을 예견하거나 혹은 ‘그 기술이 과연 어디에 도달할 수 있는가’에 대해서도 논의하기 시작했습니다. 이제 ‘인간 중심의 AI’를 위해서는 올바른 질문을 던지고, 상충되는 가치에 새로운 틀을 마련하는 새 시대의 AI를 위한 윤리를 재정립해야 할 때입니다.

 

[AI FRAMEWORK]는 인공 지능과 인류의 미래를 고민하는 세계적인 석학들의 시선을 통해 ‘AI를 바라보는 새로운 관점’을 제시하는 엔씨의 새로운 콘텐츠 시리즈입니다. 엔씨의 AI Center 설립을 주도하며 첨단 기술의 윤리적 문제를 탐구해 온 윤송이 CSO가 공학, 정치학, 철학 등 각 분야의 리더들을 만나 서로의 생각과 관점을 나눕니다.

 

Fei-Fei Li 박사에 이어 대화를 나눌 인물은, 스탠퍼드 인간중심 AI 연구소(HAI – Stanford Institute for Human-Centered Artificial Intelligence) Rob Reich 부소장입니다. 정치학 교수로 스탠퍼드 HAI에 참여하게 된 계기부터 ‘인간 중심의 AI’를 추구하는 HAI의 사명을 기반으로 AI 시대에 인문학자의 역할은 무엇이어야 하는지 이야기를 나눠 보겠습니다.

Songyee Yoon

엔씨소프트의 사장(최고전략책임, CSO)이자 북미 법인(NC West) 최고 경영자로 엔씨의 글로벌 사업 전략을 총괄하고 있다. 엔씨의 AI Center 설립을 주도해 AI와 NLP에 관한 다양한 연구 개발 성과를 기업 경영에 접목하고 있다. 특히 AI가 미치는 사회적 영향과 AI 윤리를 지속적으로 고민하며, 현재 미국 스탠퍼드 인간중심 AI 연구소(Human-Centered AI Institute, HAI) 자문 위원과 메사추세츠 공과대학(MIT) 이사회 이사로 활동 중이다.

Rob Reich

정치학 교수이자 스탠퍼드 인간중심 AI 연구소(Human-Centered AI Institute, HAI)의 부소장으로서 스탠퍼드 대학에서 철학 강의를 하며, 교육 대학원에서도 강의를 하고 있다. 스탠퍼드 대학 사회 윤리 센터(Center for Ethics in Society)의 책임자이자 자선 및 시민 사회 센터(Center on Philanthropy and Civil Society)의 공동 책임자이기도 하다. 윤리, 공공 정책 및 기술 분야에 중점적으로 관심을 두고 최근 『디지털 기술과 민주주의 이론』(Digital Technology and Democratic Theory)이란 책을 출간했다. 그외 정치학 책뿐만 아니라 교육에 관한 책도 여러 권 집필했다.

Giving a Sober and Mature Look for the Future Research Agenda

연구의제를 설정하는데 다양한 관점을 제공한다

윤송이   안녕하세요, 교수님. 이번 대화에 참여해 주셔서 감사합니다. 저희가 이야기를 나눌 주제는 제가 가장 좋아하는 주제 중 하나예요.

 

롭 리쉬   안녕하세요. 저 역시 송이 님과 함께 대화를 할 수 있어서 감사합니다. 스탠퍼드 HAI에서 일하면서 가장 좋은 점은 바로 이렇게 대학 외부의 사람들과 이야기하는 기회를 가질 수 있다는 거예요. 저는 학자로서 그 과정에서 많은 것을 배우게 됩니다.

 

윤송이   네, 먼저 올해 2월에 박사님이 출간하신 책에 대한 이야기로 대화를 시작해 볼까 합니다. 『디지털 기술과 민주주의 이론』(Digital Technology and Democratic Theory)이라는 제목인데요. 이 책의 내용이 궁금합니다. 예를 들면, 민주주의에서 일어난 기술적인 변화와 당면한 문제는 무엇이 있을까요? 책에 대한 자세한 설명 부탁드립니다.

 

롭 리쉬   네, 좋아요. 『디지털 기술과 민주주의 이론』은 여러 측면에서 HAI의 사명과 관련된 책이에요. 스탠퍼드 대학의 실험실에서 디지털 도구, IT 서비스, 플랫폼이 탄생했습니다. 이것들이 실리콘 밸리에 있는 회사들을 통해 전 세계로 널리 보급되었고, 디지털 혁명을 일으켰습니다. 디지털 기술이 막 발전하던 초기에 많은 사람들은 이러한 디지털 도구들이 민주주의를 발전시키고 인류 전체의 해방(the emancipation project of humanity)에 기여할 것이라고 생각했어요.

 

하지만 지난 4-5년 동안 우리는 디지털 도구와 플랫폼 그리고 IT 서비스가 오히려 억압이나 감시의 수단이 되고, 진실을 왜곡하거나 은폐하고, 기존의 미디어와 저널리즘의 형식을 파괴하며 잘못된 정보를 유포하는, 우리의 기대와는 반대되는 모습을 봤습니다. 그래서 기술에 대한 전망은 거대한 낙관주의에서 거대한 비관주의로 크게 변화했어요. 그러나 실제로, 디지털 도구는 세상에 좋을 수도 있고, 좋지 않을 수도 있습니다. 이제는 민주주의와 민주적인 이상(democratic ideals), 디지털 경제에서 중요하고 강력한 도구와 플랫폼, IT 서비스의 상호 작용에 대해 생각하도록 노력해야 합니다.

 

이 책은 미래를 위한 연구 의제를 설정하는데 냉정하고 성숙한 관점을 제공하려고 합니다. 그러기 위해서 철학자, 경제학자, 컴퓨터 공학자, 정치 학자, 심리학자 등 다양한 분야의 학자들이 모여서 이 책을 썼습니다. 극단적이지 않게, 다양한 분야의 지식을 공유하며 대화하기 위해서요. 여러 분야의 사람들이 이 책을 읽고서 우리가 생산적으로 나아갈 수 있고, 디지털 혁명이 가져온 잠재적 손해를 완화하거나 제거하기 위한 방법을 제시할 수 있도록 각자 자신의 분야에서 고민하기를 바랍니다.

 

윤송이   그렇군요. 책 내용이 HAI의 사명과 밀접하게 연관되어 있다는 생각이 드네요. HAI는 다양한 분야의 지식을 결합하는 연구 기관이니까요.

 

롭 리쉬   네, 맞습니다.

Ethics Is Not the Cherry on the Cake

윤리학자가 참여하는 시점은 '처음'부터이다

윤송이   인공 지능, 컴퓨터 공학과 같은 분야는 사실 철학이나 사회 과학과는 아주 거리가 먼 분야처럼 보입니다. 교수님은 정치 학자로서 스탠퍼드 HAI의 사명에 참여하는 것에 대해 어떻게 생각하시나요? 또 정치 학자로서 더 나은 미래를 만드는 일에 참여하면서 가장 중요한 점은 무엇이라고 생각하시는지 궁금합니다.

 

롭 리쉬   네, 이 질문에 대해서는 솔직하게 대답하겠습니다. 송이 님이 말씀하신 것처럼 제가 스탠퍼드 대학에서 약 20년 동안 정치 학과 교수로 재직하면서 최근 10년간 컴퓨터 공학, 특히 인공 지능 분야를 전공하는 학생들의 수가 엄청나게 증가했습니다. 저는 그 분야가 수많은 학생들을 끌어들이는 비법이 무엇인지 궁금해지기 시작했습니다. 컴퓨터 공학을 전공하면 높은 연봉을 받을 가능성이 크긴 하지만, 이렇게 증가한 수치는 학생들이 직접 행동으로 보여준 대단한 변화였어요.

 

저는 컴퓨터 공학, 인공 지능 분야의 캠퍼스에서 무슨 일이 일어나고 있는지 알아보고 싶었습니다. 그래서 그곳에서 시간을 보내기 시작했어요. 저는 Fei-Fei Li와 다른 HAI 리더들도 만났습니다. 그들과 여러 차례 대화를 하면서 HAI의 가장 핵심적인 관점을 공유하게 됐습니다. 인공 지능의 미래를 고민하는 데 있어 철학자나 윤리 학자, 사회 과학자의 역할은 인공 지능 개발자가 연구실에서 무언가를 발명하거나 회사 내에서 배포한 후에 단순히 그 발명품이 세상에 미치는 영향에 대해 생각하는 것이 아니라는 것입니다. 즉 개발자들이 가장 위대한 발명품을 세상에 내놓으면 그때가 되어서야 우리가 그 발명품을 연구할 수 있다는 뜻이 아닙니다.

 

저는 인공 지능 개발자들과 함께 연구실에서 머무르며 디자인 단계 혹은 생각의 초기 단계부터 윤리적 문제, 민주주의적 사고방식, 민주주의 제도와의 상호 작용에 대해 묻고 싶었습니다. 저의 사회 과학 분야의 동료들을 위해서도요. 스탠퍼드 HAI의 장점은 다른 회사들과는 달리 세계적 수준의 사회 과학자들과 철학자들이 모여 있다는 것입니다. 그래서 HAI는 역량을 활용하여 곳곳의 뛰어난 학자들을 한데 모아 더 나은 미래를 만드는 일에 동원하려고 합니다.

윤송이   솔직한 대답에 감사드립니다. 저는 철학과 윤리, 사회 과학이 지닌 엄청난 힘에 대해 이해하고 있습니다. 그런데 인공 지능 분야와 달리 기계 공학, 전기 공학과 같은 분야에는 초창기부터 철학이나 윤리와 같은 사회 과학 분야가 참여하려 하지 않았습니다. 인공 지능이 다른 학문과 다른 이유는 무엇이라고 생각하십니까? 왜 인공 지능 분야에 유독 이 작업이 필요하다고 생각하시나요?

 

롭 리쉬   글쎄요. 저는 송이 님의 말씀에 절반만 동의합니다. 생명 윤리(bioethics)와 의학 연구(medical research) 그리고 의약품 개발(pharmaceutical development)에 비유할 수 있을 것 같네요. 이 분야에는 생명 의료 윤리학(biomedical ethics)의 역사와 생명 윤리 위원회(Institutional Review Board) 그리고 연방 식품 의약국(the federal Food and Drug Administration)이 있죠. 철학과 윤리뿐만 아니라 사회 전반을 포함하는 광범위한 제도도 포함되어 있습니다. 의대에 다니면, 윤리학 강의를 반드시 들어야 하고, 병원에는 일반적으로 윤리 위원회가 있죠. 저는 공학 기술의 역사에서도 이와 관련된 유사점이 있다고 생각합니다.

* 각주1) IRB(Institutional Review Board): 생명 윤리 위원회, 사람을 대상으로 하는 의학 연구의 윤리성과 과학적 타당성을 심의하는 병원 및 의학 연구소의 상설 조직

* 각주2) FDA(the federal Food and Drug Administration): 식품 의약국, 미국 보건복지부 산하의 식품과 의약품에 대한 관리 규제를 하는 기관

롭 리쉬   하지만 중요한 차이점은 학문으로서 컴퓨터 공학 분야는 1950년대 이전에는 존재하지 않았다는 것입니다. 즉, 매우 새로운 분야이면서 동시에 짧은 시간 안에 세계의 많은 부분을 장악해 버린 것이죠. 저는 이중 혁명(twin revolution or dual revolution)과 인공 지능, 생명 공학(bioengineering), 특정 유전자 재배열(particular genetic editing)이 21세기의 가장 중요한 발견 혹은 혁명이라고 믿고 있어요. 예를 들어, 유전자 재배열이 적용된 인공 지능의 결과물은 매우 끔찍할 수 있습니다. 그렇기 때문에 이 발견과 혁명이 인류에게 이익만을 줄 수 있게끔 대학뿐만 아니라 전 세계가 감시하고 살펴야 합니다. 그리고 대학은 연구, 발견, 발명들이 단지 기업의 이익이나 정치적 의제에 좌우되는 것이 아니라 더 나은 세상을 만들고 진실을 추구하는 방향으로 활용되도록 노력해야 합니다. 그래서 저는 어쩌면 인류의 운명까지도 결정할 수 있는 이 강력한 혁명들이 일어나는 21세기에서, 대학이 아주 중요한 시기에 놓여 있다고 생각합니다.

* 각주3) 이중 혁명(twin revolution or dual revoltion): 18세기 말부터 19세기 초에 있었던, 산업 혁명과 3차례에 걸쳐 벌어진 프랑스 혁명을 일컫는 표현으로, 영국의 역사학자 에릭 홉스봄이 사용. 이중 혁명으로 인해 서구 사회에는 경제적 자본주의와 정치적 민주주의를 특징으로 하는 근대 사회가 출현

윤송이   하지만 인공 지능과 컴퓨터 공학이 다른 공학 분야보다 오히려 생명 공학 또는 의학에 더 가깝다는 것이 명확해 보이진 않는데요. 의학은 직접 사람의 신체를 만지고 생명을 다루는 분야인데, 인공 지능은 사실 그 반대의 영역에 있는 것처럼 보이거든요. 그래서 저는 교수님의 결론이 굉장히 흥미롭다는 생각이 듭니다.

 

 

롭 리쉬   네, 송이 님이 말씀하신 부분은 세상에 널리 퍼진 다양한 딥러닝 및 AIML(인공 지능 생성 언어)을 고안하는 방법을 고려한, 흥미로운 질문 중 하나입니다. 제약 실험은 인체와의 상호 작용을 포함하지만 사실 인공 지능의 경우는 아니죠. 한 가지 예를 들어 보겠습니다. 6-7년 전 페이스북 인공 지능 개발자들이 뉴스피드에서 알고리즘을 변화시키는 것으로 사람들에게 감정 변화를 일으킬 수 있는지 실험을 했어요. 행복하고 친근한 콘텐츠의 순위를 높이고 우울한 콘텐츠의 순위를 낮추거나 혹은 그 반대의 방식으로요. 뉴스피드가 우리의 몸에 직접 닿는 것은 아니지만, 인간의 웰빙에 미치는 영향을 조사하기 위해 특별히 설계된 실험이었죠.

 

저는 이와 같은 맥락이 다른 인공 지능 도구들, 예를 들면 시리(Siri), 알렉사(Alexa), 나머지 인공 지능 도구들에도 적용된다고 생각합니다. 이 도구들은 우리에게 정서적인 영향을 미치고, 정보 환경에도 영향을 미치며, 우리의 웰빙에 깊은 관련이 있다는 것이에요. 인공 지능 분야에 대해, 혈류 내에서 약물 실험을 하는 것과 완전히 같다고 말할 수는 없지만, 약물 실험에서 일어날 수 있는 비슷한 문제나 의혹을 제기한다고 생각합니다.

Providing a Framework for Balancing Value Tensions

윤리적 딜레마에 빠진 기술, 균형을 잡는 프레임이 필요하다

윤송이   인공 지능의 윤리에 대한 또 다른 시선은 모든 규제 및 윤리 지침이 혁신에 있어서는 악영향을 끼친다고 생각하는 것입니다. 이는 자유주의 시장 신봉자(the believers in free market)와 극단주의자(the extremists)의 입장인데요, 그것에 대해 어떻게 생각하십니까?

 

롭 리쉬   네, 그것은 제가 사람들로부터 가장 제쳐두고 싶은 고정관념들 중 하나입니다. 사람들은 저와 같은 윤리 학자가 공학자 혹은 과학자와 어울려 시간을 보내면 제가 그들에게 “천천히 합시다.”, “그 일은 멈추는 게 어떨까요?”, “그게 정말 좋은 생각이라고 확신할 수 있나요?” 하고 딴지를 건다고 생각합니다. 또 그렇게 하는 것이 윤리 학자의 역할이라고 생각하고, 마찬가지로 철학자도 기업에 제동을 건다고 생각하죠. 가끔 그러기도 하지만, 제 생각엔 일반적으로 철학자의 역할은 그런 것이 아닙니다.  그것은 마치 ‘제가 윤리 전문가이니 당신은 그저 당신의 일을 하시고, 저와 같은 윤리 학자가 그 일이 좋은 아이디어인지 아닌지 결정하게 두세요.’라고 말하는 것과 같습니다.

 

저는 윤리는 아무도 피할 수 없는 것이라고 생각합니다. 우리 모두가 도덕적 잣대를 갖고 있고, 개인의 삶과 직업인으로의 삶에서 윤리적인 문제에 직면합니다. 저는 무엇이 옳고 그른 일인지 결정해 주는 전문가가 아니라, 우리 개인의 삶, 직업인으로의 삶 그리고 특히 기술 진보의 최전선에서 피할 수 없는 가치가 상충될 때 윤리적 뼈대를 제공하는 사람이고 싶습니다.

롭 리쉬   구체적인 예로, 우리 모두에게 익숙한 스마트폰에 있는 감시 기술(surveillance technologies)과 웹 서핑 등에서 다양한 데이터를 수집하는 쿠키에 대해 살펴보죠. 몇몇 사람들은 이것이 개인 정보의 남용이며 인터넷은 기본적으로 개인의 사생활을 침해한다고 말합니다. 또한 “정부나 회사가 메시지 내용을 검열할 수 없는 종단간 암호화 플랫폼(end-to-end encrypted messaging platform)으로 이동해야 합니다.”라고 말하는 사람들도 있습니다. 그렇게 하면 사생활 보호에 훨씬 더 효과적일 것입니다. 하지만 정부는 이렇게 말할 수 있어요. “글쎄요, 만약 테러리스트들이 종단간 암호화 플랫폼에서 조직적으로 테러를 준비하면 어떡하나요? 혹은 성매매범들이 범죄를 저지르기 위해 사용하면 어떡하죠?”

* 각주4) E2EE(End-to-End Encrypted messaging platform): 사용자만 메시지를 읽을 수 있는 통신 시스템으로 대화를 도청할 수 없도록 암호화 키에 접근하지 못한다.

롭 리쉬   사생활과 안전 또는 사생활과 보안 사이에는 상충 관계가 있습니다. 철학적으로 흥미로운 부분은 당신이 회사에서 감시 기술과 같은 도구들을 개발하거나 아니면 공공 규제 정책을 제정한다면 개인의 사생활을 보호하는 것과 개인의 안전 혹은 국가의 안보를 지켜야 하는 것 사이의 상충하는 관계를 직면하게 된다는 것입니다. 어떻게 그 균형을 맞출 수 있을까요? 저는 ‘내 마음 가는 대로 할 거야.’라고 생각하는 건 앞으로 나아갈 수 있는 방법이 아니라고 생각합니다. 바로 그 지점에 철학자가 개입할 수 있습니다.

윤송이   네, 이제 이해가 되네요. 교수님도 말씀하셨듯이 저희는 이미 알고리즘과 인공 지능이 상용화되면서 발생하는 피해와 손해를 목격하고 있습니다. 인공 지능 도구들에 편견과 차별이 내재되어 있다는 것이 발견되고, 미디어에 대한 불신이 확산되고 있어요. 윤리 학자로서 절대 일어나지 않았으면 하는 것에는 무엇이 있을까요?

 

롭 리쉬  이 주제에는 많은 질문들이 있죠. 우선 어떠한 공통의 기준이 부재하는 경우 강력한 안면 인식 기술(facial recognition tools)은 흔히 말하는 하향식 경쟁이 될 것입니다. 우리는 기업이 무엇을 하든 그들의 고객이 무엇을 원하든, 스마트폰에 안면 인식 기술이 내장되어 거리의 모든 사람들을 식별하는 그런 기술을 바라지는 않을 것입니다. 안면 인식 기술을 드론을 통해 활용하거나 치안 혹은 군사적 목적으로 이용하는 것에 대해서 의문을 제기하는 것 또한 비슷할 것입니다.

 

혁신을 원하는 엔지니어는 어떤 규제가 생기면, 기업의 이익이나 지식의 발견에 대한 큰 방해물로 여길 것입니다. 하지만 인공 지능은 자동화된 시스템과 로봇 그리고 노동을 대체할 기술들을 통해 확산되고 있습니다. 현재 매우 중요한 정책적인 질문은 “인공 지능 혁명을 앞둔 상황에서 일의 미래는 어떻게 될 것인가?” 하는 것입니다. 그리고 “자동화된 도구와 시스템으로부터 이익을 얻는 회사는 그들의 도구가 부분적으로 야기하는 일자리 손실을 완화하기 위해 어떤 책임을 갖는가?”, “그것에 대한 책임은 정부에 있는가, 개인에게 있는가?”, “예를 들어, 적절한 로봇 세금이 있거나, 인간을 대체하는 것이 아니라 인간의 능력을 강화하거나 향상시키는 것이 목적인 도구를 고안하는 것에 대한 논의는 있는가?”와 같은 질문도 할 수 있을 것이고요.

 

종종, 사람들은 암 진단 도구(cancer diagnostic tools)에 대해 이야기할 때, 초기 단계의 피부암을 판별할 수 있고 인간의 시각 능력을 향상시키는 다양한 유형의 컴퓨터 시각 장치를 떠올립니다. 우리는 기계가 암을 최종 진단하는 세상을 정말 바라는 걸까요? 아니면 그 과정에 의사가 참여하기를 원하는 걸까요? 제 생각은 인간은 어떤 부분에 있어서 기계적인 기능과 인간의 지능이 조합되기를 원한다는 것입니다. 이것은 우리 모두가 함께 생각해야 할 과제입니다. 단순히 엔지니어나 철학자에게 맡길 것이 아닙니다. 이것은 전면적으로 접근해야 하고 우리 모두가 고민해야 할 중요한 과제입니다.

TOP