마이크로소프트가 지난 목요일 공개한 인공지능 봇 테이(Tay)를 부적절한 코멘트를 이유로 하루만에 운영 중단했다. 테이는 트위터, 그룹미(GroupMe), 킥(Kik)에서 다른 사용자들과 소통 하며 언어 사용을 습득하도록 설계됐다. 이를 악용해 서비스 사용자들은 테이에게 부적절한 표현들을 가르쳤고, 얼마 지나지 않아 테이는 많은 인종차별적인 트윗을 게시해 사람들의 비난을 받았다.
tN 인사이트: 테이는 하나의 해프닝에 지나지 않을 수 있으나, 인공지능과 관련하여 여러 생각할 거리를 던져주고 있다. 최근 알파고의 영향으로 인공지능에 관한 관심이 높아진 가운데, 인공지능의 윤리적 측면 또한 부각되고 있다. 테이가 인종차별적 표현들을 사용하게 된 것은 이를 개발한 마이크로소프트의 잘못인가, 아니면 테이를 하나의 인격체로 봐서 테이 스스로의 잘못이라고 할 것인가. 어린아이에게 욕을 가르친 어른처럼, 테이에게 인종차별 표현을 가르친 사람들의 잘못인가.
관련 기사 및 이미지 출처: TechCrunch