editoy

알리바바의 차세대 AI '통의천문 3.5' 공개와 글로벌 에이전트 AI 시장의 주도권 경쟁

2/16/2026

토킹 포인트

  • 알리바바의 차세대 오픈소스 모델 '통의천문(Qwen) 3.5' 출시를 통한 고성능·저비용 AI 시장의 기술적 우위 확보.
  • 희소 전문가 혼합(MoE) 구조와 하이브리드 아키텍처 채택으로 기존 모델 대비 비용 60% 절감 및 데이터 처리 속도 최대 19배 향상.
  • 시각적 추론과 복잡한 지시 이행 능력을 바탕으로 모바일 및 데스크톱 앱을 스스로 제어하는 '에이전틱 AI' 기능의 본격화.
  • 바이트댄스, 지푸 AI 등 중국 테크 기업들의 연쇄적인 모델 발표와 서구권 빅테크 모델과의 성능 격차 해소에 따른 글로벌 투자 지형 변화.

시황 포커스

  • 알리바바의 Qwen 3.5 모델(Qwen3.5-397B-A17B) 출시가 시장의 주목을 받음. 이 모델은 3970억 개의 파라미터(활성 파라미터 170억 개)를 갖춘 멀티모달 LLM으로, Gemini 3 Pro, Claude Opus 4.5, GPT-5.2와 성능이 유사한 수준임.
  • Qwen 3.5는 기존 Qwen 모델 대비 추론 효율성이 향상되었으며, 특히 선형 어텐션과 희소 MoE(Mixture of Experts) 아키텍처를 결합하여 높은 성능을 달성함.
  • 오픈소스 버전(Qwen3.5-397B-A17B)과 API 버전(Qwen3.5 Plus)으로 제공되며, Qwen3.5 Plus는 최대 100만 토큰의 컨텍스트를 지원함.
  • Mac (256GB RAM)과 같은 환경에서도 4비트 양자화를 통해 로컬 실행이 가능하며, 다양한 플랫폼(NVIDIA NeMo, Hugging Face 등)에서 활용 가능함.
  • Qwen 3.5는 코딩 및 에이전트 기능이 강화되어 개발자와 기업의 생산성 향상에 기여할 것으로 예상됨.
  • 벤치마크 테스트 결과, Qwen 3.5는 이전 모델(Qwen3-VL-235B, Qwen3-Max) 대비 성능이 크게 향상되었으며, 일부 벤치마크에서는 Kimi-K2.5와 경쟁적인 성능을 보임. 다만, Vending-Bench 2에서는 성능 저하가 관찰됨.
  • Qwen 3.5의 KV 캐시 크기는 토큰당 약 31KB로, 256K 컨텍스트 윈도우를 지원하며, 향후 100만 토큰으로 확장될 예정임.
  • 일부 시장 참여자들은 알리바바 모델의 가격 경쟁력에 대한 우려를 표명하며, Kimi-K2.5 및 GLM-5와 비교하여 가격이 높다고 지적함.
  • Qwen 3.5는 이미지, 비디오 등 다양한 멀티모달 데이터를 처리할 수 있으며, 실시간 게임(Space Invaders) 생성과 같은 복잡한 작업도 수행 가능함.
  • Qwen 3.5의 출시와 함께 SGLang, OpenRouter 등 다양한 플랫폼에서 해당 모델을 지원하기 시작함.

트렌드 키워드

  • 에이전틱 AI (Agentic AI):

    인공지능이 인간의 지속적인 개입 없이도 스스로 목표를 설정하고 필요한 도구를 사용하며 복잡한 워크플로우를 완수하는 지능형 시스템. 기존 생성형 AI가 텍스트나 이미지를 만드는 데 집중했다면, 에이전틱 AI는 이메일 발송, 파일 수정, 일정 조정 등 실제 행동을 취하는 '대행자'로서의 기능이 핵심임

    1 / 8
    에이전틱 AI 시대를 위해 구축된 통의천문 3.5는 개발자와 기업이 동일한 컴퓨팅 자원으로 더 빠르게 더 많은 일을 할 수 있도록 설계되어 추론 비용 대비 성능의 새로운 기준을 제시합니다.
  • 희소 전문가 혼합 (Sparse Mixture-of-Experts, MoE):

    모델의 전체 매개변수 중 일부의 특정 '전문가' 네트워크만 선택적으로 활성화하여 연산 효율을 극대화하는 설계 방식. 모든 신경망을 가동하지 않으면서도 대규모 모델의 지능 수준을 유지할 수 있는 고도의 최적화 기술

    통의천문 3.5는 총 3,970억 개의 매개변수를 보유하고 있으나 추론 시에는 단 170억 개만 활성화하여 4,000억 급의 지능을 훨씬 작은 모델의 속도와 메모리 요구 사양으로 구현했습니다.희소 전문가 혼합
  • 네이티브 멀티모달 (Native Multimodal):

    텍스트 모델에 시각 기능을 사후에 덧붙이는 방식이 아니라, 초기 훈련 단계부터 텍스트와 이미지, 비디오 데이터를 통합하여 학습시키는 방식. 이를 통해 모델은 사용자 인터페이스 요소를 읽거나 비디오 내 객체의 수를 세는 등 고도의 시각적 이해 능력을 갖추게 되며, 이는 이전에는 10배 더 큰 모델에서나 가능했던 수준

    1 / 2
    통의천문 3.5는 초기 융합 훈련 방식을 통해 수조 개의 텍스트와 이미지 토큰을 동시에 학습한 네이티브 멀티모달 모델로 시각적 맥락 안에서 복잡한 지시를 따르는 능력이 매우 뛰어납니다.
  • 게이티드 델타 네트워크 (Gated Delta Networks):

    긴 문장을 처리할 때 연산량이 기하급수적으로 늘어나는 표준 트랜스포머 구조의 한계를 극복하기 위해 도입된 선형 주의 집중(Linear Attention) 메커니즘. 데이터 처리 효율을 높여 긴 문맥을 다룰 때도 속도 저하를 최소화하는 기술

    통의천문 3.5는 게이티드 델타 네트워크와 전문가 혼합 구조를 결합한 하이브리드 아키텍처를 사용하여 이전 세대보다 해독 처리량을 8.6배에서 최대 19배까지 끌어올렸습니다.
  • 오픈 웨이트 모델 (Open Weight Model, Open-weight Model, Open-Weight Model):

    모델의 가중치(weight)를 공개하여 누구나 자유롭게 사용하고 수정할 수 있도록 하는 AI 모델

    1 / 3
    알리바바는 통의천문 3.5의 가중치를 허깅페이스에 공개하고 상업적 이용과 수정이 가능한 아파치 2.0 라이선스를 적용하여 개발자들이 오픈소스 생태계에서 자유롭게 활용하도록 했습니다.오픈 웨이트 모델