editoy

MoE (Mixture of Experts)

대규모 언어 모델의 효율성을 높이기 위해 여러 개의 "전문가" 네트워크를 결합하는 기술

1 / 2

용례

"엔비디아는 Vera Rubin 아키텍처를 통해 MoE 모델 훈련에 필요한 GPU 수를 4배 줄일 수 있다고 주장합니다."
"Rubin은 MoE 모델을 효율적으로 실행하여 AI 성능을 극대화합니다."