백인이 되어 버린 버락 오바마의 사진 한 장이 AI 알고리즘의 인종 편향을 완벽하게 보여주는 예시가 되고 있다.
Face Depixelizer는 머신러닝 알고리즘 ‘PULSE’를 이용, 픽셀화된 얼굴 이미지를 고화질 이미지로 재구성하기 위해 만들어진 오픈 소스 프로그램이다.
이 프로그램을 사용해 본 유저들은 이 프로그램이 유색 인종 이미지에 대해서도 백인 이미지로 생성하는 것을 발견했다. 특히, 한 트위터 이용자가 버락 오바마의 픽셀화 된 사진을 입력 후 백인으로 변한 이미지를 공유하면서 화제가 되었다.
머신러닝 블로거 Robert Osazuwa Ness는 자신과 유명인 유색 인종 사진을 Face Depixelizer 통해 입력한 결과 아래 그림처럼 모두 백인의 특징을 가지도록 구성된 사실을 공개하기도 했다.
이 프로그램의 기반이 되는 알고리즘인 PULSE는 픽셀화된 입력 이미지를 고화질의 가장 유사한 인공 얼굴 이미지로 생성한다. 그럼에도 불구하고 백인이 아닌 이미지를 백인으로 만드는 심각한 편향을 보였다.
이런 편향의 원인은, 머신러닝 훈련에 사용된 데이터의 편향에서 기인된 문제라는 분석이다. 현재 이 오픈소스 프로그램은 해당 이슈를 인지하고 6월 24일 실제 신원확인이나, 사진 복원을 위해 사용되지 않기를 권고하는 내용을 추가 안내하고 있다.
최근 미국에서 일어난 Black Lives Matter 운동을 통해서 AI의 편향에 대한 우려가 더욱 촉발되고 있는 상황이다. 미국 경찰에서 사용하고 있는 AI 기반 용의자 인식, 우범지역 예측 등에도 이런 편향의 문제가 있을 것이라 지적이다.
작년 12월 미국 국립표준기술연구소(NIST)의 보고서에 따르면, 안면 인식 AI는 대다수가 편향을 가지고 있음이 드러났다. 이 보고서는 미국 국무부, 국토 안보부, FBI등에 수집된 총 1,827개 사진 데이터를 기반으로, Intel, MS, Panasonic등 주요 기업 알고리즘을 분석한 결과를 포함하고 있다.
범죄자 얼굴을 판별하는 실험에서 유색인종의 신원이 잘못 파악될 확률이 백인 오판 확률보다 최대 100배나 차이나는 것이 확인되었다. 이는 죄없는 사람이 무고하게 혐의를 받을 수 있다라는 의미가 된다.
유색 인종에게 차별적이거나 해를 끼칠 수 있다고 판단한 IBM, Amazon, MS는 경찰에 안면 인식 프로그램 제공을 중단하기로 합의하고, 일부 회사는 안면 인식 기술 개발을 중지하거나 철회했다.
테크니들 인사이트
위 사례는 튜링 어워드 (Turing Award) 수상자이자 현재 페이스북 AI부분 리더인 얀 르쿤 (Yann LeCun)과 ‘Black in AI’ 공동 창업자이자 구글 윤리 인공지능팀의 기술 리더인 팀닛 게브루 (Timnit Gebru)의 논쟁으로 화제가 되었다.
실생활에서 AI 활용 분야와 범위가 늘어나면서 이 같은 편향 문제가 점차 이슈화되고 있다. AI알고리즘의 편향은 인간의 고정관념이 그대로 학습된 AI가 인간과 유사한 고정관념을 토대로 판단하게 되면서 발생하는 문제들인 것이다.
AI가 비윤리적이고, 차별적인 판단과 결정을 하지 않도록 하기 위해서는 AI 기술 연구와 더불어 윤리적으로 학습하고 최적화 할 수 있도록 AI Compliance나 윤리 대한 연구도 병행될 필요가 있어 보인다.
현재로써는 편향를 제거하고 중립적인 가치 판단을 할 수 있는 AI를 만드는 것이 쉽지 않다라는 것은 전문가들의 공통된 견해이다. 그러나 페이스북의 경우 해당 문제의 심각성을 인지하여 내부적으로 편향을 전담하는 팀을 신설한다고 발표하는 등 여러 기관들에서 편향 문제에 대한 연구를 시작한 상황이라 점차 개선 되리라 예상해본다.
관련 기사 출처 : ScreenRant, BusinessInsider, TheVerge