网站公告: k8凯发真人娱乐-k8凯发真人娱乐手机
新闻动态您当前的位置:官网首页 > 新闻动态 >

NVIDIA A100登陆AWS,开启加速云计算的下一个十年

更新时间:2020-11-12 20:22

通讯国际网音讯(CWW)十年前,AWS(Amazon Web Services)发布了首个选用NVIDIA M2050 GPU的实例。其时,根据CUDA的运用首要专心于加快科学模仿,AI和深度学习还遥遥无期。

自那时起,AWS就不断扩大云端GPU实例阵型,包含K80(p2)、K520(g3)、M60(g4)、V100(p3 / p3dn)和T4(g4)。

现在,已全面上市的全新AWS P4d实例选用最新NVIDIA A100 Tensor Core GPU,敞开了加快核算的下一个十年。

全新的P4d实例,为机器学习练习和高功能核算运用供给AWS上功能与本钱效益最高的GPU渠道。与默许的FP32精度比较,全新实例将FP16机器学习模型的练习时刻削减多达3倍,将TF32机器学习模型的练习的时刻削减多达6倍。

这些实例还供给超卓的推理功能。NVIDIA A100 GPU在最近的MLPerf Inference基准测验中一骑绝尘,完成了比CPU快237倍的功能。

1.png

每个P4d实例均内置八个NVIDIA A100 GPU,经过AWS UltraClusters,客户能够运用AWS的Elastic Fabric Adapter(EFA)和Amazon FSx供给的可扩展高功能存储,按需、可扩展地一起拜访多达4,000多个GPU。P4d供给400Gbps网络,经过运用NVLink、NVSwitch、NCCL和GPUDirect RDMA等NVIDIA技能,进一步加快深度学习练习的作业负载。EFA上的NVIDIA GPUDirect RDMA在服务器之间可经过GPU传输数据,无需经过CPU和体系内存,然后保证网络的低推迟。

此外,许多AWS服务都支撑P4d实例,包含Amazon Elastic Container Services、Amazon Elastic Kubernetes Service、AWS ParallelCluster和Amazon SageMaker。P4d还可运用一切NGC供给的经过优化的容器化软件,包含HPC运用、AI结构、预练习模型、Helm图表以及TensorRT和Triton Inference Server等推理软件。

现在,P4d实例已在美国东部和西部上市,并将很快扩展到其他地区。用户能够经过按需实例(On-Demand)、Savings Plans、预留实例(Reserved Instances)或竞价型实例(Spot Instances)几种不同的方法进行购买。

GPU云核算开展开始的十年,已为商场带来超越100 exaflops的AI核算。跟着根据NVIDIA A100 GPU的Amazon EC2 P4d实例的面世,GPU云核算的下一个十年将迎来一个夸姣的初步。

NVIDIA和AWS不断协助各种运用打破AI的边界,以便了解客户将怎么运用AI强壮的功能。

【返回列表页】
地址:广东省广州市天河区88号    电话:    传真: