올해 3월 엔비디아의 ‘GTC (GPU Technology Conference) 2024’에서 젠슨 황 (Jensen Huang)은 “인공 일반 지능(Artificial General Intelligence, 이하 AGI) 시대가 5년 남았다”고 밝혔다. 인공지능 기술의 발전은 우리 일상과 산업 구조에 큰 변화를 가져오고 있다. 그 중심에 AGI가 있다.
AGI
역사적으로 인공지능 학자들의 목표는 인간 지능과 비슷한 수준의 시스템을 구축하는 것이었다. 인지심리학 권위자인 허버트 사이먼 (Herbert Simon)은 1965년 저서 <The Shape of Automation for Men and Management>에서 “기계가 20년 내에 인간이 할 수 있는 어떤 일이든 할 수 있게 될 것”이라고 예측했다.
MIT 인공지능 연구소 설립자로 유명한 마빈 민스키 (Marvin Minsky)는 1970년에 “3년에서 8년 사이에 우리는 평균적인 인간의 지능 수준을 가진 기계를 갖게 될 것입니다. 셰익스피어를 읽고, 차에 기름을 채우고, 정치를 하고, 농담을 하고, 싸움을 할 수 있는 기계를 말합니다”라고 예측했다.
AGI를 이해하기 위해서는 ‘특정 목적 인공지능’이라는 개념을 알아야 한다. 특정 목적만을 위해 개발된 ‘특정 목적 인공지능’은 한정된 작업이나 분야만을 위한 인공지능을 뜻한다. 그래서 Narrow AI로 불린다. 많은 데이터, 복잡한 연산 등을 컴퓨터에게 맡겨 손실이 낮은 인공지능 모델을 만드는 것이 ‘특정 목적 인공지능’의 목표다.
반면 AGI는 다양한 분야에서 인간과 유사한 학습, 이해, 추론 능력을 지닌 인공지능을 지향한다. 그래서 AGI는 Full AI 혹은 Strong AI라고 불린다. 사람은 언어 학습, 문제 해결, 예술 창작 등 다양한 분야에서 일정 수준의 능력을 발휘할 수 있는데, AGI는 이러한 인간의 능력을 재현하는 것이다. AGI는 기계적 학습을 넘어 인간 지능을 모방하고자 한다. 복잡한 문제 해결부터 창의적 작업까지 인간과 유사한 수준의 이해와 처리 능력을 AGI는 지향한다.
그런데 AGI는 여전히 관련 기술이 발전하고 있어 명확한 정의가 존재하지 않는다. 딥러닝 연구로 유명한 제프리 힌턴 (Geoffrey Hinton)은 최근 AP와 진행한 인터뷰에서 AGI의 개념이 아직은 모호하다는 입장을 내놨다. 힌턴은 ‘초지능’이라는 뜻의 ‘superintelligence’가 AGI를 설명하는데 더 정확할 것이며 인간만큼 좋은 인지 성능을 보이는 인공지능이 AGI라고 했다. 다음 표는 AGI와 Narrow AI의 차이점을 요약한 것이다. AGI와 Narrow AI 모두 인공지능의 한 분야지만, 정의, 능력, 적용 범위 등에서 차이를 보인다.
기반 기술
AGI 연구는 세계적으로 활발히 이루어지고 있으며 선두 기업으로 OpenAI, Google, Meta 등이 있다. AGI를 통해 인간의 오감과 인지 능력을 구현하기 위해서는 자연어 처리, 컴퓨터 비전 등 다양한 기술이 필요하다.
자연어 처리 (Natural Language Processing, NLP)
NLP는 컴퓨터가 인간의 언어를 이해하고 생성하기 위한 기술이다. AGI가 인간과 자연스럽게 소통하고 언어 기반 작업을 수행할 수 있게 해 준다. 대표적으로 OpenAI의 GPT 시리즈는 NLP 분야에서 놀라운 진보를 보여주고 있다. 이 기술은 NLP 분야에서 텍스트 생성, 번역, 요약과 같은 고도의 언어 처리 작업이 어떻게 가능한지 보여준다.
다음 이미지는 OpenAI 샘 올트먼 (Sam Altman)이 지난 4월 12일 자신의 X (링크)에 올린 GTP4 Turbo의 성능 지표다. 1월보다 모든 벤치마크에서 성능이 향상되었음을 보여준다.
각 벤치마크의 특징은 다음과 같다.
- DROP (Discrete Reasoning Over Paragraphs)
- 인공지능 모델의 독해력 평가 위한 데이터
- 텍스트에서 복잡한 정보를 추출하고 이해하는 능력 평가
- 관련 논문 https://arxiv.org/pdf/1903.00161
- GPQA (Graduate-Level Google-Proof Q&A Benchmark)
- 구글 검색으로 쉽게 답을 찾을 수 없는 물리학, 화학, 생물학 분야의 박사급 전문 지식과 추론력 필요한 448개 객관식 문제로 구성
- 인공지능 모델의 깊이 있는 지식 이해와 추론 능력 평가
- 관련 논문 https://arxiv.org/pdf/2311.12022
- MATH (Mathematics Aptitude Test of Heuristics)
- 인공지능 모델의 수학 문제 해결력 평가 위한 데이터
- 초등 수학부터 대학 수준의 고급 수학에 이르기까지 다양한 수준의 문제와 해결 과정 포함
- 관련 논문 https://arxiv.org/pdf/2103.03874
- MGSM (Multilingual Grade School Math)
- 인공지능 모델의 기초 수학 문제 해결력 평가 위한 데이터
- 10개 언어로 된 초등 수준의 수학 문제를 통해 글로벌 사용자 대상의 모델 성능 검증
- 관련 논문 https://arxiv.org/pdf/2210.03057
- MMLU (Massive Multitask Language Understanding)
- 인공지능 모델의 언어 능력 평가 위한 데이터
- 미국 역사, 컴퓨터, 법률 등 57개 분야에 대한 복합적이고 광범위한 이해, 처리, 학습 능력 검증
- 관련 논문 https://arxiv.org/pdf/2009.03300v3
- HumanEval
- OpenAI의 프로그래밍 코드 생성 모델인 Codex의 능력 평가 위해 OpenAI 및 Anthropic AI 연구진 주도로 구축된 데이터
- 164개의 파이썬 프로그래밍 문제를 포함하며, 모델이 생성한 코드의 기능과 정확성 검증
- 관련 논문 https://arxiv.org/pdf/2107.03374
컴퓨터 비전 (Computer Vision, CV)과 로보틱스 (Robotics)
CV는 시각 데이터를 이해하고 분석하는 기술이다. CV는 컴퓨터가 사진이나 비디오를 이해할 수 있게 함으로써 인간과 유사한 방식으로 시각적 정보를 처리할 수 있다. 자율주행은 CV가 활용되는 대표적인 분야다. CV는 자율주행 기기가 실시간으로 주변을 인식하고 해석하여 안전한 운전 결정을 내리는 데 사용된다. Tesla, Waymo, Cruise 등의 회사들이 이 분야에서 혁신을 주도하고 있다.
로보틱스는 AGI의 물리적 상호 작용을 위한 기술이다. Boston Dynamics의 로봇들은 복잡한 환경에서도 안전하게 이동하고 물체를 조작한다. 이는 향후 AGI가 현실 세계에서 유용하게 활용될 수 있는 가능성을 보여준다. Amazon은 자사의 첫 자율주행 로봇인 Proteus와 휴머노이드 Digit을 실전 배치해 물류 센터에서 인간 작업자가 빠르고 안전하게 작업할 수 있도록 돕는다.
기호적 추론 vs. 확률적 추론
인간이 그렇듯 AGI도 복잡한 결정을 내릴 수 있어야 한다. 이를 위해 기호적 추론(symbolic reasoning)과 확률적 추론(probabilistic reasoning) 같은 추론 기술이 연구되고 있다.
기호적 추론은 데이터와 규칙을 명확한 기호로 표현하고, 기호들 간의 관계를 바탕으로 결론을 도출한다. 기호적 추론은 정형화된 환경에서 효과적이며 규칙 기반의 결정을 내린다. 수학 문제 풀이, 전략 게임 등에서 쓰인다. 기호적 추론은 인공지능의 초기 연구에서 중요한 역할을 했으며 명시적 표현과 논리적 추론이 필요한 분야에서 여전히 활용되고 있다.
반면 확률적 추론은 불확실성을 다루는데 쓰인다. 가능한 여러 결과에 대한 확률을 기반으로 추론을 수행한다. 확률적 추론은 현실의 불확실성을 반영할 수 있다는 특징 때문에 기상 예측, 질병 진단, 금융 시장 분석과 같이 변동성이 중요한 분야에서 쓰인다.
기호적 추론과 확률적 추론은 상호 대립되는 개념 같지만 카페에서 커피를 고르는 소소한 문제에서부터 기업이나 정부 수준의 심오한 문제에 이르기까지 거의 모든 종류의 의사 결정에 사용하는 방법론이다. 따라서 AGI가 이 두 가지 방식의 추론을 통합하여 사용할 수 있다면 불확실성이 크고 복잡한 문제를 해결하는 과정에서 인간과 유사한 또는 그 이상의 추론 능력을 발휘할 수 있을 것이다.
감정 인식 (Emotion Recognition)
감정 인식 기술도 AGI 개발에 중요하다. 인간의 감정에 공감하고 상호 소통할 수 있는 기능이 AGI에게 필요하기 때문이다. 이를 위해 AGI는 인간의 얼굴 표정, 음성, 생체 신호 등 비언어적 정보에서 감정을 인식하게 된다. 표정의 경우 Convolutional Neural Network, Capsule Network, Transformer 등의 방법을 통해 기쁨, 슬픔, 놀람, 분노 등 다양한 감정 상태를 식별할 수 있다.
음성에서는 톤, 높낮이, 강도 등을 분석해 감정을 판단한다. 음성 데이터에서 감정 특징을 추출하기 위해 Long Short-Term Memory, Recurrent Neural Networks, Gated Recurrent Units 등의 기술이 쓰인다. 생체 신호의 경우 심박수, 피부 전도도 등의 생체 신호를 분석하여 스트레스, 흥분 정도 등을 추론한다. 미묘한 감정 인식이 가능한 AGI는 인간과 소통하고 공감하며 자연스러운 교감을 할 수 있게 될 것이다.
갈등과 대책
AGI는 그 장점에도 불구하고 적지 않은 갈등을 불러올 것으로 예상된다.
첫째, 사회적 갈등이다. 예를 들어 의료 분야의 경우 진단과 치료를 위해 현재도 다양한 인공지능과 로봇 기술이 쓰이고 있다. 그런데 향후 AGI가 실전 배치된다면 일자리 감소와 같은 사회 경제적 문제가 야기될 수 있다. 지금은 인간 의사의 진단에만 권위를 부여하고 있지만 향후 AGI가 내릴 진단에도 비슷한 수준의 권위를 줘야 한다는 필요성 또한 제기될 수 있다. 인간과 AGI의 갈등은 결정의 권위 혹은 해석의 권위가 중요한 분야라 할 수 있는 법률, 언론, 금융 등의 분야에서도 비슷한 양상으로 벌어질 것이다.
둘째, 윤리적 갈등이다. 자율주행은 AGI의 윤리 문제를 이야기할 때 흔히 언급되는 주제다. 차도를 건너는 사람을 피하기 위해 운전자가 타고 있는 차량을 도로 밖으로 주행시켜 운전자를 위험에 빠뜨려야 하는가 하는 문제가 그렇다. 현재는 이러한 사고 발생 시 사법 기관의 판단으로 잘못을 가리고 가해자에게 벌을 준다. 그러나 만약 AGI가 가해자가 된다면 책임 소재 판단이 지금보다 훨씬 어려워진다.
셋째, AGI에 대한 제어 문제다. 인간이 AGI를 안전하게 제어할 수 있어야 하는데 AGI 구조가 복잡해짐에 따라 제어가 어려워질 수 있다는 우려가 많다. 이를 위해 UC 버클리 대학의 Center for Human-Compatible Artificial Intelligence 연구진들은 최근 Science에서 인공지능 규제 프레임워크를 제안했다.
연구진은 장기 계획을 세울 줄 아는 능력을 가진 강화학습 시스템 (long-term planning agent, LTPA)의 위협이 특히 클 것이라 예측했다. LTPA가 위험한 이유는 강화학습의 특성상 LTPA에게 보상을 극대화하는 목표를 주고 어느 시점에서 인간이 그 보상을 제한한다면 LTPA가 보상을 극대화하기 위해 인간의 개입을 제한하려는 강한 동기가 생길 수 있기 때문이다. 인간의 개입을 인공지능이 제한한다는 것은 결국 인간 입장에서는 제어가 어려운 위험한 인공지능이 된다는 것이다. 따라서 연구진들은 LTPA 개발 단계에서부터 규제가 필요하며 의무적인 보고(reporting)가 필요하다고 제안한다.
AGI가 가져올 미래는 흥미롭지만 불확실한 분야임에 틀림없다. AGI의 실현 가능성과 상용화 시기는 기술 발전, 사회적 합의 등 다양한 요인에 의해 결정될 것이다. 국가 정책, 시장 경쟁 양상도 영향을 미칠 것이다. AGI가 초래할 변화는 개인의 의사 결정, 사회의 작동 구조 등에 큰 영향을 준다. AGI 연구와 개발 과정에서 기술적 고민뿐 아니라 사회적, 윤리적 갈등에 대한 심도 깊은 고민이 수반되어야 하는 이유다. 젠슨 황의 공언처럼 곧 도래할 AGI 세상을 위한 준비가 필요하다.
참조
- Melanie Mitchell ,Debates on the nature of artificial general intelligence. Science 383, eado7069(2024).DOI:10.1126/science.ado7069
- https://techcrunch.com/2024/03/19/agi-and-hallucinations/
- Simon, H. A. (1965). The shape of automation for men and management (Vol. 13). New York: Harper & Row.
- https://web.eecs.umich.edu/~kuipers/opinions/AI-progress.html
- Summit, A. S. (2023). The Bletchley Declaration by Countries Attending the AI Safety Summit. Recuperado de: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-bycountries-attending-the-ai-safety-summit-1-2-november-2023.
- https://apnews.com/article/agi-artificial-general-intelligence-existential-risk-meta-openai-deepmind-science-ff5662a056d3cf3c5889a73e929e5a34
- Michael K. Cohen et al.,Regulating advanced artificial agents. Science 384,36-38(2024).DOI:10.1126/science.adl0625
- https://www.aboutamazon.com/news/operations/10-years-of-amazon-robotics-how-robots-help-sort-packages-move-product-and-improve-safety