머신러닝(Machine Learning)의 활용 분야가 점점 넓어지고 있다. 지난 2013년 시카고 트리뷴은 시카고 경찰이 도시 내 인적자료를 통해 예측분석 모델을 만든 뒤 이를 통해 범죄에 연류될 가능성이 가장 높은 400명을 추려 사전 경고를 해서 물의를 일으킨 적이 있다. 또한, 채용담당자들이 인지하지 못하는 점을 찾아내거나 근거없는 사람의 편견을 배제해서 부가적인 가치를 제공하기도 한다. 예를 들면, 채용 지원 당시 윈도우 익스플로러를 사용해서 지원서를 쓰는 사람보다 크롬이나 파이어폭스 등의 브라우저로 지원자들이 업무 성과가 더 좋다는 결과나, 입사지원 시 매우 불리한 요소로 작용되는 범죄기록이 실제로 업무성과에 큰 영향을 미치지 않는다는 것 등이다. 이는 물론, 수많은 이커머스에서도 개인정보를 개인에게 특화된 광고, 할인, 추천 등을 제공하고 있다.
이렇게 알고리즘에 기반한 머신러닝 적용은 윤리적 문제가 따른다. 시카고 경찰의 예로 돌아가보자. 감옥의 대다수의 수감자들이 히스패닉, 또는 흑인임을 감안했을 시, 추가 잠재 범죄인들 예측분석 모델도 이러한 정보에 기반한 ‘편견’을 가지게 되지 않을까? 그리고 데이터에 기반한 근거있는 편견은 괜찮은걸까?
이러한 윤리적 문제를 우회하는 한 방법은 앞서 언급된 예측모델을 개개인에게 적용하는 것이 아니라, 좀더 거시적인 통찰력을 얻기 위해 사용하는 것이다. 데이터 모델만드는 경쟁플랫폼인 캐글(Kaggle)에서는 샌프란시스코 내 지역별로 범죄 유형 및 빈번도를 예측하는 분석경쟁이 진행중이며, 이미 이러한 분석을 통해 한정된 경찰재원 범죄 방지를 극대화 하기 위한 노력이 한창이다.
하지만 궁극적으로 이러한 다양한 예측모델의 사용주체는 사람이며, 이로 인한 사회적 분쟁 요소를 피하기는 힘들 것이다. 구체적인 규제방안이나 가이드라인을 정부에서 제공하기를 기대하기도 힘들기 때문에 당분간 적정한 문화가 정착되기 전까지 머신러닝 및 예측분석의 활용 범위에 대해 논란이 계속될 것으로 예상된다.
관련 기사: Machine Learning And Human Bias: An Uneasy Pair (TechCrunch)