딜레마 (dilemma)라는 단어는 ‘두 개’를 뜻하는 그리스어 ‘di’와 ‘진술’을 뜻하는 ‘lemma’의 합성어로 ‘두 진술의 충돌’을 뜻한다. 하늘에 두 개의 태양이 있을 수 없는 것처럼 두 개의 진술 중 하나는 권위를 상실해야 하는 상황을 딜레마라고 할 수 있다.
생성형 AI 기술은 요즘 많은 테크 기업들이 집중하는 분야다. 경쟁사보다 하루라도 빨리 생성형 AI 서비스를 출시하려는 기업들이 많다. 그런데 생성형 AI 기술은 기업들에게 때론 딜레마로 다가오기도 한다. 생성형 AI 기술이 긍정적 결과뿐 아니라 부정적 결과도 가져오기 때문이다. 최근 구글이 발표한 새로운 정치 광고 운영 정책에서 이를 엿볼 수 있다.
구글에 따르면 만약 구글 플랫폼에 노출되는 정치 광고에 AI 기술이 적용되었다면 올해 11월부터 광고주는 이를 밝히는 정보를 광고에 달아야 한다. 주인공의 목소리, 얼굴 이미지 등을 AI로 만들었다는 사실을 대중에게 숨김없이 알려야 한다.
구글이 지금 이 정책을 내놓게 된 배경 중 하나는 딥페이크가 쓰인 정치 광고를 규제하려는 미국 연방선거관리위원회 (Federal Election Commission)의 움직임에 대한 선제적 대응으로 보인다. 내년에 펼쳐질 미국 대선을 앞두고 선거 광고의 투명성을 높이려는 것이다. 정치 광고에 유권자의 올바른 판단을 돕는 정보가 담겨야 한다는 뜻이 구글의 새 정책에 담겨 있다. 덕분에 대중들은 생성형 AI로 만든 정치 광고를 보고도 인위적으로 조작된 내용을 그대로 믿기보다 한번 더 비판적인 태도를 취할 수 있게 될 것이다.
물론 광고 매출도 고려할 사항이다. 아래 eMarketer 데이터가 보여주듯, 구글은 메타와 함께 미국 정치 온라인 광고의 양대산맥이다. AI로 만든 혼란스러운 정치 광고를 예방하고 안정적으로 플랫폼을 운영해야 할 필요가 매출 측면에서도 뚜렷하다.
그런데 구글의 딜레마는 구글이 광고 플랫폼만 운영하는 것이 아니라 생성형 AI 기술도 활발히 연구 개발하는 회사라는 점이다. 구글이 만드는 생성형 AI로는 언어 모델 PaLM 시리즈, 이미지 생성 모델 Imagen, 음성 인식 모델 Chirp, 코드 생성 모델 Codey 등이 있다. 이런 모델들은 조직 및 개인 사용자들의 생산성을 높여주는 기술로 혁신적인 인공지능 서비스를 만드는데 큰 기여를 한다.
구글의 새 정치 광고 정책은 생성형 AI 기술이 해롭거나 부정확한 정보를 만드는데 악용되는 도구가 될 수 있음을 보여준다. 생성형 AI 기술이 많이 쓰일수록 구글에 좋지만, 반대로 생성형 AI 기술이 구글 플랫폼에 노출되는 정치 광고에는 불투명하게 쓰이면 안 된다는 해석이 가능하다.
Axios 등 일부 미디어들은 2024년 미국 대선에 끼칠 AI의 부정적 역할을 걱정하고 있다. 2008년 버락 오바마 대통령이 당선된 대선 캠페인에서 소셜 미디어가 큰 역할을 했듯 이번 대선 캠페인에서는 AI의 역할이 중요하다는 분석이다. 진짜 같은 가짜를 만드는데 탁월한 성능을 보이는 생성형 AI의 범람 속에서 투명한 정치 정보를 전달하려는 구글의 새 광고 정책이 어떤 긍정적 효과를 발휘할지 기대된다.
테크니들 인사이트
전통적인 IT 시스템과 비교해 생성형 AI 시스템은 인간 사용자에게 상대적으로 큰 영향을 준다. Anthropomorphism 즉 생성형 AI 시스템 개발에 적용되는 ‘의인화’라는 특징 때문이다. 대부분의 생성형 AI 시스템은 마치 사람처럼 말하거나 반응하도록 만들어지는데 그로 인해 사용자는 기계가 아닌 사람과 의사소통하고 있다고 느낄 가능성이 커진다.
따라서 생성형 AI 시스템 개발 기업들은 사용자가 어떤 영향을 받을지 좀 더 책임감 있게 고민할 필요가 있다. 긍정적 영향뿐 아니라 부정적 영향까지도 예상해 이를 미리 방지하려는 노력이 개발 단계에서부터 이뤄져야 한다. 소비자들 또한 생성형 AI 시스템이 내놓는 결과나 반응을 전적으로 수용하기보다 비판적이고 능동적인 태도로 받아들일 필요가 있다.
관련 기사: The Verge, Axios, Washington Post
이미지 출처: eMarketer