전 세계 각계각층 인사, 초지능 AI 개발 중단 촉구
10/23/2025
토킹 포인트
- 노벨상 수상자, AI 선구자, 정치인, 연예인 등 800명 이상의 다양한 인물들이 인류에 대한 잠재적 위협을 이유로 초지능 AI 개발의 잠정적 금지를 촉구하는 성명서에 서명
- 초지능 AI 개발이 안전하고 통제 가능하다는 광범위한 과학적 합의와 강력한 대중적 지지가 있을 때까지 개발을 중단할 것을 제안
- 대중은 AI의 빠른, 비규제적 개발에 대한 우려가 높고 강력한 규제를 지지하는 반면, 주요 AI 기업들은 초지능 AI 개발 경쟁을 지속하며 규제 노력에 소극적인 태도
- 초지능 AI가 인간의 경제적 구식화, 자유와 통제력 상실, 국가 안보 위험, 심지어 잠재적 인류 멸종을 포함한 광범위한 위협을 제기한다는 우려 표명
시황 포커스
- 초지능 AI의 무분별한 개발에 대한 강력한 반대 여론 형성 중.
- 안전성 확보 시까지 초지능 개발 중단 또는 금지 요구 확산.
- 정치인, 종교 지도자, 학계, 문화계 등 광범위한 분야의 저명인사 다수 참여 확인.
- 대중의 70% 이상이 초인공지능 개발에 대한 강한 규제를 지지하며, 무제한적 속도 경쟁에 대한 부정적 시각 우세.
- 인류의 생존과 미래에 대한 잠재적 위험성에 대한 우려 심화.
- AI의 잠재적 혜택 인정하나, 안전 장치와 대중의 참여를 통한 신중한 접근 필요성 강조.
- 초지능 개발 속도에 대한 시급한 논의 및 대응 필요성 제기.
- 일부에서는 현 성명서가 정책적으로 모호하며 비생산적이라는 비판 제기.
- 초지능의 현실성 또는 임박성에 대한 회의적 시각도 일부 존재함.
트렌드 키워드
- 초지능 (Superintelligence):
인류의 모든 인지적 과업에서 인간보다 훨씬 뛰어난 성능을 발휘할 수 있는 가상의 인공지능 시스템을 의미. 현재의 챗봇이나 자동화 도구를 넘어, 자율적으로 전략적 결정을 내리고 스스로 코드를 재작성하며 인간의 감독 범위를 벗어나 작동할 수 있는 수준의 AI를 지칭
“초지능은 모든 인지적 과업에서 모든 인간을 실질적으로 능가하는 AI 시스템으로 정의되었습니다.” - 인공 일반 지능 (Artificial General Intelligence, AGI):
인간이 수행할 수 있는 모든 지적 과제를 성공적으로 수행할 수 있는 가상의 지능을 의미하며, 현재 특정 작업에만 특화된 인공지능(Narrow AI)의 단계를 넘어선 개념. AGI는 학습, 문제 해결, 계획 등 범용적인 인지 능력을 발휘할 수 있는 능력을 지칭하며, 구글은 프로젝트 지니와 같은 혁신적인 기술을 AGI 실현을 향한 더 큰 임무의 일부로 간주하고 기술 개발 방향을 설정
1 / 3“일부 AI 연구자들은 AI 시스템이 인간이 할 수 있는 것과 같은 지적 작업을 수행하는 능력인 인공 일반 지능을 곧 입증할 만큼 빠르게 발전하고 있다고 믿습니다.” - 실존적 위험 (Existential Risk):
인류 문명의 장기적 잠재력을 영구적으로 파괴하거나 심각하게 제한할 수 있는 위험. 인공지능 분야에서는 통제 불가능한 초지능 AI가 인류의 가치와 목표에 부합하지 않는 방식으로 발전하여 인류 전체의 생존을 위협할 수 있다는 우려를 포함하며, 핵무기, 생명공학 등 대규모 위험과 함께 논의되는 개념
“인류의 경제적 구식화, 자유와 통제력 상실, 국가 안보 위험, 심지어 잠재적 인류 멸종에 이르는 우려가 제기되었습니다.실존적 위험” - 정렬 문제 (Alignment Problem):
인공지능 시스템, 특히 초지능이 인간이 의도하거나 추구하는 가치, 윤리, 목표와 일치하도록(정렬되도록) 보장하는 어려운 기술적, 철학적 과제. AI의 능력이 인간을 능가하게 되었을 때, AI가 인류에게 해를 끼치지 않고 긍정적인 영향을 미치도록 통제하고 방향을 설정하는 것이 핵심이며, 앤트로픽의 헌법 AI 접근 방식은 이러한 정렬 문제를 해결하기 위한 구체적인 방법론 중 하나
1 / 2“이러한 우려는 AI 연구자들이 정렬 문제라고 부르는 것에 집중됩니다. 즉, 인간보다 똑똑한 시스템이 인간의 가치와 양립할 수 있는 목표를 추구하도록 보장하는 것입니다.” - 퓨처 오브 라이프 인스티튜트 (Future of Life Institute, FLI):
핵무기, 생명공학, 인공지능 등 대규모 위험에 대해 연구하고 인류에게 이로운 방향으로 변혁적 기술 개발을 유도하는 것을 목표로 2014년에 설립된 비영리 연구 기관. 일론 머스크(Elon Musk) 등이 초기 후원자로 참여했으며, AI 안전 및 규제와 관련된 공개 서한 캠페인 등을 주도하며 대중의 인식을 높이고 정책적 논의를 촉진하는 역할을 수행하는 단체
“이 성명서는 대규모 위험에 대해 연구하는 비영리 단체인 퓨처 오브 라이프 인스티튜트의 산물입니다.”