윤송이 한편으로는 인공지능 솔루션(AI solutions)에 대해 항상 이야기하는 문제 중 하나가 바로 인공지능이 모든 면에서 일부 편견을 지닌 실제 인간의 데이터를 기반으로 하고, 그렇기 때문에 편견을 확대하고 재생산한다는 것인데요. 우리 인간들이 편견에서 자유롭지 못한 상태에서 인공지능에게 더 높은 윤리 기준을 기대할 수 있을까요?
알렉스 번 맞아요. 물론 이것은 문제이지요. 많은 사람들이 다양한 종류의 인공지능에 대한 글을 썼습니다. 예를 들어, 안면 인식을 하거나 이력서를 검토하는 인공지능에 대해서요. 제 생각에 여기선 기술적인 문제와 철학적인 문제를 구분하는 게 도움이 될 것 같아요.
그러니까 기술적인 문제라는 것은 예를 들어, 어떤 안면 인식 소프트웨어가 특정 인종이나 성별을 잘 인식하지 못한다면 우리가 이 소프트웨어를 선한 목적으로 사용하느냐, 악한 목적으로 사용하느냐는 문제가 되지 않는다는 것입니다. 특정 집단의 얼굴을 제대로 인식하지 못하는 안면 인식 소프트웨어는 아무도 원하지 않을 테니 이 소프트웨어를 개선하는 것이 문제겠죠.
하지만 공정성(fairness)이라는 개념을 다르게 조작(operationalization)을 한다고 했을 때 이는 철학적인 차원의 문제가 됩니다. 공정한 결과에 대한 개념을 조작화하는 다양한 산술적인 방법(mathematical ways)이 있음이 드러났고, 사실 그 방법들은 모두 호환되지는 않습니다. 하나를 선택하면 다른 하나를 포기해야 합니다. 다른 한 쪽을 더 선호하기 때문에 공정성을 조작하는 하나를 포기해야 하고, 그때 어떤 선택을 할 것인지 결정해야 하는거죠. 이건 전적으로 기술적인 문제가 아니고, 윤리적이거나 철학적인 문제라고 볼 수 있습니다. 저는 안면 인식 소프트웨어와 관련된 많은 이슈, MIT의 젠더 쉐이드 프로젝트(Gender Shades Project) 등은 대부분 기술적인 문제와 관련되어 있다고 생각합니다. 이런 문제는 상대적으로 쉽습니다.