newsroom 11/17 posted
• “Nvidia Mellanox 400G InfiniBand의 방대한 처리량과 스마트 가속 엔진을 통해 HPC, AI 및 하이퍼 스케일 클라우드 인프라는 적은 비용과 복잡성으로 탁월한 성능을 달성 할 수 있습니다.
• A100 80GB는 이제 각각 10GB의 메모리를 사용하여 최대 7 개의 서로 다른 GPU 인스턴스로 분할할 수 있다고 Nvidia는 말했습니다.
• 이렇게하면 더 안전한 하드웨어 격리가 제공되고 다양한 소규모 워크로드를 나란히 실행할 때 효율성이 극대화됩니다.
• 결과적으로 단일 A100 80GB 인스턴스는 RNN-T 자동 음성 인식 모델을 사용하여 1.25 배 빠른 추론 처리량을 제공 할 수 있었다고 Nvidia는 말했습니다.
• 또한 Nvidia의 다중 인스턴스 GPU 기술을 지원하므로 28 개의 별도 GPU 인스턴스로 분할하여 한 번에 더 많은 병렬 작업을 실행할 수 있습니다.
• 이를 통해 연구자와 과학자는 HPC, 데이터 분석 및 딥 러닝 컴퓨팅 방법을 결합하여 과학적 진보를 발전시킬 수 있습니다.”라고 Kharya는 결론을 내립니다.
• NVIDIA의 응용 딥 러닝 연구 부사장인 Bryan Catanzaro는 "HPC 및 AI 연구에서 최첨단 결과를 얻으려면 가장 큰 모델을 구축해야하지만 이전보다 더 많은 메모리 용량과 대역폭이 필요합니다."라고 말했습니다.
• "A100 80GB GPU는 불과 6 개월 전에 도입 된 이전 제품에 비해 두 배의 메모리를 제공하고 초당 2TB의 장벽을 허물어 연구자들이 세계에서 가장 중요한 과학 및 빅 데이터 문제를 해결할 수 있도록 지원합니다."
• 업그레이드된 GPU는 이미 NVIDIA의 새로운 DGX Station A100에 적용되었습니다. 실제로 그 중 4 개는 기본적으로 상자 안에 들어있는 데이터 센터이며 4 개의 A100 80GB GPU는 "유지 보수가 필요없는 냉매 냉각 시스템"을 통해 냉각 상태를 유지하면서 2.5 페타 플롭의 AI 성능을 제공합니다.


NVIDIA A100 80GB GPU Unveiled [www.storagereview.com]



Login to comment

Open Wiki - Feel free to edit it. -
11/17 answered



permanent link

Login to comment

Open Wiki - Feel free to edit it. -
11/17 answered



permanent link

Login to comment