MoE (Mixture of Experts)
대규모 언어 모델의 효율성을 높이기 위해 여러 개의 "전문가" 네트워크를 결합하는 기술
1 / 2
용례
"엔비디아는 Vera Rubin 아키텍처를 통해 MoE 모델 훈련에 필요한 GPU 수를 4배 줄일 수 있다고 주장합니다."
"Rubin은 MoE 모델을 효율적으로 실행하여 AI 성능을 극대화합니다."
대규모 언어 모델의 효율성을 높이기 위해 여러 개의 "전문가" 네트워크를 결합하는 기술
"엔비디아는 Vera Rubin 아키텍처를 통해 MoE 모델 훈련에 필요한 GPU 수를 4배 줄일 수 있다고 주장합니다."
"Rubin은 MoE 모델을 효율적으로 실행하여 AI 성능을 극대화합니다."