AGI(범용 인공지능)가 인류에게 위험한가에 대한 논쟁은 AI 분야에서 가장 첨예한 주제입니다.
학자들은 크게 「실존적 위험을 우려하는 진영」과 「과장된 두려움이라 보는 진영」으로 나뉩니다.
위험 우려 진영의 대표 인물은 닉 보스트롬(「Superintelligence」 저자), 일론 머스크, 제프리 힌튼(2024년 노벨상 수상자), Geoffrey Hinton, Yoshua Bengio 등입니다.
그들의 핵심 주장은 「자기 자신을 더 잘 만들 줄 아는 AI가 등장하면 "지능 폭발"이 일어나 통제 불가능해질 수 있다」는 것입니다.
Anthropic·DeepMind도 이 우려를 공유합니다.
회의 진영의 대표 인물은 얀 르쿤(Meta AI 수석), 앤드루 응 등입니다.
그들의 주장은 「현재의 LLM은 진짜 추론·계획 능력이 부족해 AGI 근처에도 못 가고 있다」, 「AGI가 나오더라도 자동으로 적대적이지는 않다」, 「당장의 진짜 위험은 편향·오용·일자리이지 AGI가 아니다」입니다.
두 진영의 차이는 결국 「AGI가 언제 어떤 형태로 등장할 것인가」에 대한 가정에서 비롯됩니다.
우려 진영은 「가까운 미래(5~30년)에 강력한 AGI가 가능하다」고 보고, 회의 진영은 「수십 년 이상 걸리거나 영영 못 만들 수 있다」고 봅니다.
학자 중 어느 진영이 옳은지는 누구도 단정할 수 없습니다.
분명한 것은 두 진영 모두 「현재의 AI도 윤리·편향·오용의 위험이 있다」는 데에는 동의한다는 점이며, 그래서 「AGI 가능성과 무관하게 지금의 안전 연구·정책 마련이 필요하다」는 데는 큰 합의가 있습니다.
한 줄 요약
AGI의 위험성에 대해 학자들은 우려 진영(보스트롬·힌튼·머스크)과 회의 진영(르쿤·응)으로 나뉩니다.
핵심 차이는 AGI 도달 시점과 형태에 대한 가정이며, 양쪽 모두 현재의 안전 연구 필요성에는 동의합니다.
더 알아볼 것
- Bostrom의 「Superintelligence」 핵심 주장
- Hinton의 2023년 구글 퇴사와 경고
- Yann LeCun의 회의적 입장