ment 12/4 '19 posted
•  라스 베이거스에서 2019 re : Invent의 기조 연설에서 AWS CEO Andy Jassy는 맞춤형 실리콘의 중요성, 즉 Nitro 하이퍼바이저 실리콘, Arm Neoverse 코어를 사용하는 Graviton CPU의 두 번째 버전 및 AI 모델 교육을 위한 새로운 추론 중심 Arm CPU의 중요성을 강조했습니다..
• Graviton2 기반 제품에는 최대 64 개의 vCPU, 25Gbps 향상된 네트워킹 및 18Gbps EBS 대역폭이 포함됩니다.
• 블로그 포스트에서 AWS의 수석 전도사인 Jeff Barr는 "추가 메모리 채널과 코어 당 2 배속 캐시로 최대 5 배까지 메모리 액세스 속도를 높였습니다."라고 합니다. 
• EC2의 Inf1 인스턴스는 TensorFlow, PyTorch 및 MXNet를 즉시 지원하여 G4에 비해 대기 시간이 짧고 처리량이 3 배 더 높으며 최대 40 % 더 낮은 추론 당 비용으로 "클라우드에서 가장 빠른 추론"으로 선포됩니다. 
• AWS는 또한 작년의 re : Invent에서 발표된 Inferentia 머신 러닝 프로세서가 현재 일반적으로 제공되고 있다고 발표했습니다.
• AWS는 x86 기반의 인스턴스와 비교하면 ARM 기반의 인스턴스의 가격 / 성능 비율이 40 % 향상하는 것을 이미 약속하고 있습니다.
• 첫 번째 세대의 Graviton 프로세서 (A1)과 비교하여 오늘의 새로운 칩은 경우에 따라서는 A1 인스턴스의 최대 7 배의 성능을 제공하는 것입니다.
• AWS는 운영 체제 공급 업체 및 독립 소프트웨어 공급 업체와 협력하여 ARM에서 실행되는 소프트웨어 릴리스를 지원하고 있습니다.
• 네, Intel과 AMD는 향후 수개월간 차세대 인스턴스를 가동해줄 것이만, AWS는 Graviton2 차세대 EC2로 간주되기에 충분한 성능을 제공한다고 밝혔습니다.
• 이러한 인스턴스에 대한 피드백은 강력하고 긍정적이었으며 고객은 컴퓨팅 요구가 많고 메모리를 많이 사용하는 워크로드에서 Arm 기반 서버를 사용할 준비가 되었다고 말했습니다.




Login to comment

Open Wiki - Feel free to edit it. -
12/4 '19 answered



permanent link

Login to comment

Open Wiki - Feel free to edit it. -
12/4 '19 answered



permanent link

Login to comment