Wired지의 Mat Honan 기자가 재미있는 실험을 했다. 페이스북에서 보이는 것마다 ‘좋아요(Like)’를 눌러서 피드에 어떤 변화가 나타나는지를 관찰했다. 그는 48시간 동안 이 실험을 계속했는데, 그의 피드가 완전히 달라지는 결과를 낳았다.
그가 관찰한 바에 의하면 페이스북에서 한가지 기사에 대해 Like를 누르면 관련기사 4개를 즉시 보여준다. 그 관련기사를 또 Like하면 4개가 즉시 또 나타나므로 무한루프에 빠지게 된다. 그래서 Honan은 처음 4개 관련기사만 Like하기로 룰을 정해야 했다. Honan은 각종 상품광고들 (아마존이나 리빙소셜, 각종 쿠폰등)도 닥치는대로 Like했고 잘 모르는 친구들의 업데이트에도 무조건 엄지손가락을 세워줬다. (단, 친척의 사망 소식에는 차마 Like 할수 없었다 함)
그러자 그의 페이스북 피드는 금세 180도 달라졌다. 친구들의 업데이트는 거의 사라졌고, 허핑턴포스트, Upworthy 기사, Buzzfeed에 올라온 연예인 소식, 그리고 각종 상품 광고나 프로모션들이 완전히 피드를 뒤덮었다. 실제 사람이 올린 포스트는 찾기 어려울 정도가 됐다. 그리고 최근 팔레스타인 가자지구 사태에 대해 이스라엘 옹호입장의 글을 하나 Like 하였더니 극보수단체의 게시물들이 쏟아졌다. 그 게시물들을 다 Like 했다간 극보수 요주의 인물로 찍힐까봐 두려웠다고 전했다.
또, 그의 이런 실험은 친구들 피드에 까지 영향을 미쳤다. 몇명의 친구 피드는 “Honan이 좋아한 게시물”이라는 명목으로 잡다한 것들이 다 올라오는 사태가 벌어졌다. 그의 친구들은 그의 계정이 해킹당한것으로 간주하고 메시지를 보내왔다.
tN insight: 극단적인 실험이였지만 페이스북 피드 알고리즘에 많은 맹점이 있음을 단적으로 보여준다. 그리고 더 근본적인 문제는 소셜미디어를 사용함으로써 폭넓은 시각을 갖게 되는 것이 아니라 더 편향된 시각을 갖게될 가능성이 높다는 것이다. 위의 예에서 보듯, 자신의 정치성향에 맞는 글을 하나 Like 하기 시작하면 그와 비슷한 성향의 글들이 집중적으로 뜨게 되므로 자신도 모르는새 점점 더 한쪽 방향으로 기울기 십상이다.
관련기사: Wired