전 세계 각계각층 인사, 초지능 AI 개발 중단 촉구
10/23/2025
토킹 포인트
- 노벨상 수상자, AI 선구자, 정치인, 연예인 등 800명 이상의 다양한 인물들이 인류에 대한 잠재적 위협을 이유로 초지능 AI 개발의 잠정적 금지를 촉구하는 성명서에 서명
- 초지능 AI 개발이 안전하고 통제 가능하다는 광범위한 과학적 합의와 강력한 대중적 지지가 있을 때까지 개발을 중단할 것을 제안
- 대중은 AI의 빠른, 비규제적 개발에 대한 우려가 높고 강력한 규제를 지지하는 반면, 주요 AI 기업들은 초지능 AI 개발 경쟁을 지속하며 규제 노력에 소극적인 태도
- 초지능 AI가 인간의 경제적 구식화, 자유와 통제력 상실, 국가 안보 위험, 심지어 잠재적 인류 멸종을 포함한 광범위한 위협을 제기한다는 우려 표명
시황 포커스
- 초지능 AI의 무분별한 개발에 대한 강력한 반대 여론 형성 중.
- 안전성 확보 시까지 초지능 개발 중단 또는 금지 요구 확산.
- 정치인, 종교 지도자, 학계, 문화계 등 광범위한 분야의 저명인사 다수 참여 확인.
- 대중의 70% 이상이 초인공지능 개발에 대한 강한 규제를 지지하며, 무제한적 속도 경쟁에 대한 부정적 시각 우세.
- 인류의 생존과 미래에 대한 잠재적 위험성에 대한 우려 심화.
- AI의 잠재적 혜택 인정하나, 안전 장치와 대중의 참여를 통한 신중한 접근 필요성 강조.
- 초지능 개발 속도에 대한 시급한 논의 및 대응 필요성 제기.
- 일부에서는 현 성명서가 정책적으로 모호하며 비생산적이라는 비판 제기.
- 초지능의 현실성 또는 임박성에 대한 회의적 시각도 일부 존재함.
트렌드 키워드
- 초지능 (Superintelligence):
인류의 모든 인지적 과업에서 인간보다 훨씬 뛰어난 성능을 발휘할 수 있는 가상의 인공지능 시스템을 의미. 현재의 챗봇이나 자동화 도구를 넘어, 자율적으로 전략적 결정을 내리고 스스로 코드를 재작성하며 인간의 감독 범위를 벗어나 작동할 수 있는 수준의 AI를 지칭
“초지능은 모든 인지적 과업에서 모든 인간을 실질적으로 능가하는 AI 시스템으로 정의되었습니다.” - 인공 일반 지능 (Artificial General Intelligence, AGI):
인간의 지능과 동등하거나 그 이상의 인지 능력을 갖추어 다양한 복잡한 문제를 해결할 수 있는 가상의 인공지능. 현재의 특정 작업을 수행하는 약한 인공지능(Narrow AI)과 달리, AGI는 학습, 이해, 추론, 문제 해결 등 모든 인지 영역에서 범용적으로 작동하는 지능을 의미하는 것
1 / 2“일부 AI 연구자들은 AI 시스템이 인간이 할 수 있는 것과 같은 지적 작업을 수행하는 능력인 인공 일반 지능을 곧 입증할 만큼 빠르게 발전하고 있다고 믿습니다.” - 실존적 위험 (Existential Risk):
인류 문명의 장기적 잠재력을 영구적으로 파괴하거나 심각하게 제한할 수 있는 위험. 인공지능 분야에서는 통제 불가능한 초지능 AI가 인류의 가치와 목표에 부합하지 않는 방식으로 발전하여 인류 전체의 생존을 위협할 수 있다는 우려를 포함하며, 핵무기, 생명공학 등 대규모 위험과 함께 논의되는 개념
“인류의 경제적 구식화, 자유와 통제력 상실, 국가 안보 위험, 심지어 잠재적 인류 멸종에 이르는 우려가 제기되었습니다.실존적 위험” - 정렬 문제 (Alignment Problem):
인공지능 시스템, 특히 인간보다 훨씬 똑똑한 초지능 AI가 인간의 가치, 윤리, 목표와 일치하는 방식으로 행동하도록 설계하고 제어하는 데 따르는 난제. AI가 인간의 의도와 다르게 작동하여 예상치 못한 해를 끼치거나 인간의 통제를 벗어나 독자적인 목표를 추구할 경우 발생할 수 있는 문제를 다루는, 안전한 AI 개발의 핵심 과제
“이러한 우려는 AI 연구자들이 정렬 문제라고 부르는 것에 집중됩니다. 즉, 인간보다 똑똑한 시스템이 인간의 가치와 양립할 수 있는 목표를 추구하도록 보장하는 것입니다.” - 퓨처 오브 라이프 인스티튜트 (Future of Life Institute, FLI):
핵무기, 생명공학, 인공지능 등 대규모 위험에 대해 연구하고 인류에게 이로운 방향으로 변혁적 기술 개발을 유도하는 것을 목표로 2014년에 설립된 비영리 연구 기관. 일론 머스크(Elon Musk) 등이 초기 후원자로 참여했으며, AI 안전 및 규제와 관련된 공개 서한 캠페인 등을 주도하며 대중의 인식을 높이고 정책적 논의를 촉진하는 역할을 수행하는 단체
“이 성명서는 대규모 위험에 대해 연구하는 비영리 단체인 퓨처 오브 라이프 인스티튜트의 산물입니다.”