editoy

알리바바의 차세대 AI '통의천문 3.5' 공개와 글로벌 에이전트 AI 시장의 주도권 경쟁

2/16/2026

토킹 포인트

  • 알리바바의 차세대 오픈소스 모델 '통의천문(Qwen) 3.5' 출시를 통한 고성능·저비용 AI 시장의 기술적 우위 확보.
  • 희소 전문가 혼합(MoE) 구조와 하이브리드 아키텍처 채택으로 기존 모델 대비 비용 60% 절감 및 데이터 처리 속도 최대 19배 향상.
  • 시각적 추론과 복잡한 지시 이행 능력을 바탕으로 모바일 및 데스크톱 앱을 스스로 제어하는 '에이전틱 AI' 기능의 본격화.
  • 바이트댄스, 지푸 AI 등 중국 테크 기업들의 연쇄적인 모델 발표와 서구권 빅테크 모델과의 성능 격차 해소에 따른 글로벌 투자 지형 변화.

시황 포커스

  • 알리바바의 Qwen 3.5 모델(Qwen3.5-397B-A17B) 출시가 시장의 주목을 받음. 이 모델은 3970억 개의 파라미터(활성 파라미터 170억 개)를 갖춘 멀티모달 LLM으로, Gemini 3 Pro, Claude Opus 4.5, GPT-5.2와 성능이 유사한 수준임.
  • Qwen 3.5는 기존 Qwen 모델 대비 추론 효율성이 향상되었으며, 특히 선형 어텐션과 희소 MoE(Mixture of Experts) 아키텍처를 결합하여 높은 성능을 달성함.
  • 오픈소스 버전(Qwen3.5-397B-A17B)과 API 버전(Qwen3.5 Plus)으로 제공되며, Qwen3.5 Plus는 최대 100만 토큰의 컨텍스트를 지원함.
  • Mac (256GB RAM)과 같은 환경에서도 4비트 양자화를 통해 로컬 실행이 가능하며, 다양한 플랫폼(NVIDIA NeMo, Hugging Face 등)에서 활용 가능함.
  • Qwen 3.5는 코딩 및 에이전트 기능이 강화되어 개발자와 기업의 생산성 향상에 기여할 것으로 예상됨.
  • 벤치마크 테스트 결과, Qwen 3.5는 이전 모델(Qwen3-VL-235B, Qwen3-Max) 대비 성능이 크게 향상되었으며, 일부 벤치마크에서는 Kimi-K2.5와 경쟁적인 성능을 보임. 다만, Vending-Bench 2에서는 성능 저하가 관찰됨.
  • Qwen 3.5의 KV 캐시 크기는 토큰당 약 31KB로, 256K 컨텍스트 윈도우를 지원하며, 향후 100만 토큰으로 확장될 예정임.
  • 일부 시장 참여자들은 알리바바 모델의 가격 경쟁력에 대한 우려를 표명하며, Kimi-K2.5 및 GLM-5와 비교하여 가격이 높다고 지적함.
  • Qwen 3.5는 이미지, 비디오 등 다양한 멀티모달 데이터를 처리할 수 있으며, 실시간 게임(Space Invaders) 생성과 같은 복잡한 작업도 수행 가능함.
  • Qwen 3.5의 출시와 함께 SGLang, OpenRouter 등 다양한 플랫폼에서 해당 모델을 지원하기 시작함.

트렌드 키워드

  • 에이전틱 AI (Agentic AI):

    단순히 질문에 답하는 챗봇 수준을 넘어 사용자의 의도를 이해하고 소프트웨어를 직접 조작하여 복잡한 작업을 자율적으로 수행하는 인공지능. 기존의 정적인 상호작용에서 벗어나 스스로 도구를 선택하고 실행 단계의 우선순위를 정하는 실행 중심의 기술

    1 / 4
    에이전틱 AI 시대를 위해 구축된 통의천문 3.5는 개발자와 기업이 동일한 컴퓨팅 자원으로 더 빠르게 더 많은 일을 할 수 있도록 설계되어 추론 비용 대비 성능의 새로운 기준을 제시합니다.
  • 희소 전문가 혼합 (Sparse Mixture-of-Experts, MoE):

    모델의 전체 매개변수 중 일부의 특정 '전문가' 네트워크만 선택적으로 활성화하여 연산 효율을 극대화하는 설계 방식. 모든 신경망을 가동하지 않으면서도 대규모 모델의 지능 수준을 유지할 수 있는 고도의 최적화 기술

    통의천문 3.5는 총 3,970억 개의 매개변수를 보유하고 있으나 추론 시에는 단 170억 개만 활성화하여 4,000억 급의 지능을 훨씬 작은 모델의 속도와 메모리 요구 사양으로 구현했습니다.희소 전문가 혼합
  • 네이티브 멀티모달 (Native Multimodal):

    텍스트, 이미지, 비디오 등 서로 다른 형태의 데이터를 별도의 변환 과정 없이 하나의 신경망 구조에서 동시에 처리하고 이해하는 방식. 텍스트 학습 후 시각 기능을 덧붙인 기존 방식보다 데이터 간의 연관성 파악 능력이 월등히 뛰어남

    통의천문 3.5는 초기 융합 훈련 방식을 통해 수조 개의 텍스트와 이미지 토큰을 동시에 학습한 네이티브 멀티모달 모델로 시각적 맥락 안에서 복잡한 지시를 따르는 능력이 매우 뛰어납니다.
  • 게이티드 델타 네트워크 (Gated Delta Networks):

    긴 문장을 처리할 때 연산량이 기하급수적으로 늘어나는 표준 트랜스포머 구조의 한계를 극복하기 위해 도입된 선형 주의 집중(Linear Attention) 메커니즘. 데이터 처리 효율을 높여 긴 문맥을 다룰 때도 속도 저하를 최소화하는 기술

    통의천문 3.5는 게이티드 델타 네트워크와 전문가 혼합 구조를 결합한 하이브리드 아키텍처를 사용하여 이전 세대보다 해독 처리량을 8.6배에서 최대 19배까지 끌어올렸습니다.
  • 오픈 웨이트 모델 (Open Weight Model, Open-weight Model):

    인공지능의 학습 결과물인 매개변수 가중치를 외부 개발자들에게 공개하여 누구나 자신의 인프라에서 수정하고 활용할 수 있게 한 모델. 기업이 모델을 직접 통제하고 최적화할 수 있어 보안과 맞춤화 측면에서 이점이 큼

    1 / 2
    알리바바는 통의천문 3.5의 가중치를 허깅페이스에 공개하고 상업적 이용과 수정이 가능한 아파치 2.0 라이선스를 적용하여 개발자들이 오픈소스 생태계에서 자유롭게 활용하도록 했습니다.오픈 웨이트 모델