컴퓨터가 애니매이션 사진(GIF)의 감정을 읽는다. GIFGIF

Screen Shot 2014-03-15 at 12.13.58 AM

Kevin Hu, Travis Rich 두명의 MIT 대학원 생이 합심하여 여러 사진을 시간 차이로 보여주는 GIF 형식의 파일을 통해 이미지의 감정을 읽는다는 GIFGIF 프로젝트를 진행한다. 이 두 창업자는 Place Pulse 라는 MIT Media Lab 의 연구 프로젝트를 보고 GIFGIF 를 시작하였다. 이 두 학생은 글(Text)을 GIF 로 번역하려는 목표를 가지고 현 진행중인 프로젝트의 한 부분으로 감정에 관한 문화 차이를 발견하려는 연구를 했다. GIFGIF 프로젝트는 두개의 GIF 사진묶음을 보여주고 어떠한 사진이 (열 일곱가지의 감정들 중 한) 감정으로 더 잘 표현되었는지를 사용자에게 묻는다. 이 과정을 통해 수량화 (quantified) 된 정보를 얻게되고 컴퓨터가 감정이 개재된 글을 GIF 로 옮길 수 있게되는데, 이것이 컴퓨터가 감정을 이해하는 능력을 주지는 못하지만 이에 아깝게 된다. Rich 에 따르면 충분한 정보가 쌓이게 될시 GIFGIF 가 GIF 를 활용, 그에 따른 감정에 상응하는 영화를 추천하는 등의 도움을 줄 수 있게 된다. 이 두 대학원생은 이 정보를 API 로 공개 공유하여 다른 연구원들이 사용할 수 있도록 할 예정이다.

tN insight: 얼마전 TechNeedle 에도 소개가 되었던 Emotient와 표정을 인식하여 감정을 읽는 Affectiva 등 사람의 감정을 컴퓨터로 읽으려는 연구가 제품으로 이어지고 있다. 로봇 기술도 발전되고 Google 과 같은 소프트웨어 회사가 Boston Dynamics 를 인수하는 등 로봇 관련 소프트웨어와 하드웨어가 함께 발전하는 기회가 이어지고 있다. 로봇이 조금씩 똑똑해지고 있다.

관련 기사: Mashable

Written by

테크니들을 통해 흐름을 읽고 배우고 싶습니다. 마소에서 클라우드 공부를 하고 있습니다.

댓글 남기기