editoy

구글, 미 국방부와 기밀 AI 공급 계약 체결: 기술 윤리와 국방 안보의 충돌

4/29/2026

토킹 포인트

  • 구글의 미 국방부 기밀 네트워크 대상 인공지능(AI) 모델 공급 및 기술 지원 계약 체결.
  • '모든 적법한 정부 목적' 사용 허용 문구에 따른 자율 살상 무기 및 대량 감시 전용 가능성 부각.
  • 딥마인드 등 핵심 연구 인력 600여 명의 강력한 반대 서한 발송 및 내부 윤리적 갈등 심화.
  • 엔스로픽의 거부와 대조되는 구글·오픈AI·xAI의 국방 시장 선점 경쟁 및 기술 민족주의 확산.

시황 포커스

  • 구글이 엔스로픽의 공백을 메우며 미 국방 시장 내 점유율 확대를 위한 전략적 결단을 내린 것으로 보임.
  • 내부 개발자들의 강력한 반발에도 불구하고 경영진이 정부 계약을 통한 수익성 강화에 방점을 찍은 양상임.
  • '적법한 사용'이라는 계약 문구가 정부의 기술 운용 자율성을 극대화하는 동시에 기업의 윤리적 통제권을 무력화할 수 있다는 우려가 있음.
  • 자율 드론 스웜 사업에서는 철회했으나 기밀 AI 계약은 체결하는 등 구글의 군사 협력 행보가 이중적인 모습을 띠고 있음.
  • 아마존과 마이크로소프트가 주도하는 정부 클라우드 시장에서 60억 달러 규모의 신규 매출을 창출하려는 구글의 강력한 의지가 확인됨.
  • 기술적 안전장치보다 국가 안보적 필요성이 우선시되는 '신냉전' 기조가 실리콘밸리 기술 기업들의 의사결정에 직접적인 영향을 미치고 있음.
  • 엔스로픽의 공급망 위험 지정 사례는 정부의 요구에 부응하지 않는 기업에 대한 강력한 압박 수단으로 작용하고 있음.
  • 투자 시장에서는 국방 부문의 안정적인 매출 확보가 Alphabet 주가에 긍정적인 모멘텀으로 작용할 것으로 기대하는 분위기임.
  • AI 기술의 군사적 활용이 가속화됨에 따라 기술 기업 내 핵심 인재 이탈 가능성과 기업 이미지 실추라는 리스크가 상존함.
  • 기밀 네트워크 내 AI 배치는 단순한 도구 공급을 넘어 국가 전략 자산으로서의 AI 위상을 공고히 하는 상징적 사건임.

트렌드 키워드

  • 모든 적법한 정부 목적 (Any lawful government purpose):

    미 국방부가 AI 기술을 활용함에 있어 특정 용도에 제한을 두지 않고 법적 테두리 내에서 자유롭게 운용할 수 있도록 보장하는 계약상의 광범위한 허용 범위를 의미함

    이번 합의는 미 국방부가 구글의 AI 모델을 모든 적법한 정부 목적으로 사용할 수 있도록 허용하며, 이는 다른 AI 기업들과의 협상에서도 논란이 되었던 핵심 문구이다.
  • 엔스로픽 블랙리스트 (Anthropic Blacklisting):

    자율 무기 사용에 대한 안전장치 유지를 고수하다 미 국방부로부터 공급망 위험 요소로 지정되어 정부 사업 참여가 제한된 사건

    엔스로픽은 대량 감시와 자율 무기에 대한 안전 정책 제거를 거부한 이후 펜타곤에 의해 공급망 위험 요소로 낙인찍혀 연방 정부 사용이 금지되는 처분을 받았다.엔스로픽 블랙리스트
  • 프로젝트 메이븐 (Project Maven):

    2018년 구글 직원들의 대규모 반대로 중단되었던 드론 영상 분석 AI 협력 사업으로, 구글의 군사 협력 복귀를 비판하는 대표적 전례로 인용됨

    1 / 2
    일부 구글 직원들은 2018년 드론 영상 분석을 위한 프로젝트 메이븐 계약에 반대하며 시위를 벌였고, 그 결과 회사가 해당 계약을 갱신하지 않기로 결정했던 과거를 상기시키고 있다.
  • 제미나이 (Gemini):

    구글이 개발한 최신 대규모 언어 모델로, 이번 계약을 통해 미 국방부 기밀 네트워크 내에서 작전 수립 및 사이버 보안 등의 핵심 임무에 투입될 예정임

    1 / 13
    구글은 기밀 업무를 수행하는 국방부 네트워크에 자사의 제미나이 AI 도구를 배치하여 사용할 수 있도록 하는 수정 계약을 체결했다.
  • 인간의 감독 (Human Oversight):

    AI가 타격 대상을 선정하거나 살상 결정을 내릴 때 인간이 최종적인 판단과 통제를 수행해야 한다는 윤리적 방어선

    구글 대변인은 적절한 인간의 감독과 통제 없이는 대량 감시나 자율 무기에 AI 시스템이 사용되지 않아야 한다는 원칙을 여전히 고수하고 있다고 강조했다.