2024-05-22 02:03

均价300万美元?英伟达GH200超级芯片落地9个超算中心,每秒两百亿亿次flop

5.6万

文章来源:新智元


图片来源:由无界AI生成
图片来源:由无界AI生成


【导读】英伟达正在宣传其Grace Hopper的异构计算框架正在被分布于世界各地的9台超算系统所使用,共同实现了惊人的 200 exaflops的AI计算能力。这表明英伟达正在为世界上一些更强大的人工智能系统供货,已经开始取代AMD和英特尔在高性能计算领域的地位。



英伟达用Grace Hopper的实力证明,它可以成为AI超算的首选硬件,未来将不再局限于GPU。

5月12日,英伟达宣布,全球有9台新型超级计算机正在使用Nvidia Grace Hopper超级芯片来加速科学研究和发现,从而推动高性能计算(HPC)产业转向以AI驱动。


Grace Hopper超级芯片
Grace Hopper超级芯片


即将上线的这9台超算包括法国的EXA1-HE、波兰的Helios、瑞士的Alps、德国的JUPITER、美国UIUC的DeltaAI以及日本的Miyabi。

这9个系统的算力加在一起可以提供200 exaflops(即每秒两百亿亿次浮点数计算)的处理能力。

此外,英国布里斯托大学的Isambard-AI和Isambard 3,以及美国洛斯阿拉莫斯国家实验室和德克萨斯高级计算中心的系统也开始使用Grace Hopper的硬件和平台。

其中,Isambard-AI第一阶段的超级计算机HPE Cray EX2500就配备了168个GH200超级芯片,成为有史以来最高效的计算机之一。

预计剩余的5280颗芯片将于今年夏天交付给Isambard-AI系统,届时其性能将提高约32倍,从而推动数据分析、药物发现、气候研究和更多AI4Science领域的发展。

英伟达Grace Hopper超级芯片架构是第一个真正的异构加速平台,将Hopper GPU的高性能和Grace CPU的多功能性融合在单个芯片中,专为加速计算和生成式AI而打造。


GH200芯片架构示意图
GH200芯片架构示意图


该系列中的GH200芯片在AI和高性能运算方面有非常强大的能力,单个GH200芯片由一个72核Grace CPU和一个H100 GPU组成,内存容量最高可达624GB。



对于百亿亿级的高性能计算或万亿参数级别的AI模型,芯片间的传输速度几乎和芯片的计算能力一样重要,服务器集群中的每个 GPU之间需要进行高速、无缝的通信,以实现大规模加速。

英伟达的NVLink技术就是为了解决通信问题,GH200中的CPU和GPU通过NVLink C2C连接在一起,提供900GB/s带宽,是第五代PCIe带宽的7倍。

在单个服务器上,通过NVlink连接的双GH200芯片可以提供比H100高3.5倍的GPU内存容量和3倍的带宽。



然而,英伟达并没有公开GH200的价格,可以参考的是,目前H100系列官方售价约为4万美元。


英伟达进军超算


近两年来,英伟达不断在服务器和高性能计算领域布局,与AMD、英特尔等公司展开竞争。

尽管英伟达的GPU业务蒸蒸日上,已经赚得盆满钵满,几乎控制全部的AI GPU市场,但进军高性能计算也非常重要,因为给超算系统提供硬件和平台是一项规模巨大且利润丰厚的业务。

目前,世界各国都在不约而同地加大数据、基础设施等方面的投资,以建造更高效的超算系统,这些超算中心以及科技巨头都可以成为Grace Hopper硬件及其平台的潜在用户。

为此,英伟达基于Arm架构从头构建了Grace系列数据中心CPU,旨在创建高性能计算和AI超级芯片。

然而,在2月发布的HPCC基准测试中,Grace还是落后于英伟达最新的Sapphire Rapids CPU,在八项测试中仅有三项更快。



但也有文章指出,Grace在散热和成本方面存在优势,这也是构建数据中心需要考虑的关键因素。

最新一代的Grace Hopper超级芯片于去年8月推出,是世界上第一个配备HBM3e内存的处理器,容量达到141GB,旨在处理「世界上最复杂的生成式人工智能工作负载,涵盖大型语言模型、推荐系统和矢量数据库」。

英伟达CEO黄仁勋穿着他标志性的皮夹克,在世界顶级计算机图形学会议SIGGRAPH 2023的讲台上发布了这款产品。



HBM(高带宽内存)各代之间的区别主要在于传输速度而非容量。相比AMD所使用的HBM3内存,HBM3e提速约50%,将Grace Hopper中的数据传输速率从原来的4TB/s提升到5TB/s。

除了Grace Hopper系列,英伟达也在雄心勃勃地扩展更多的产品线,以满足不同层次、不同场景的计算需求。

比如老黄在今年3月的GTC大会上展示的下一代Blackwell系列芯片属于英伟达,其中的GB200型号结合了一个Grace CPU和两个B200 GPU,实现5 petaflops(每秒千万亿次浮点计算)的处理能力,相比之下,H200 GPU的原始计算能力只有1 petaflops。

《巴伦周刊》分析师Tae Kim在推特中写道,据汇丰银行分析师估算,一颗GB200芯片的成本可能高达7万美元,而且英伟达更倾向于为客户提供集成了多个芯片的服务器,而不是直接出售芯片,会进一步抬高芯片的平均价格。

比如GB200 NVL36服务器配备36个GB200芯片,平均售价约为180万美元,搭载72个芯片的NVL72服务器售价可能达到300万美元。



加速AI驱动的科学研究


英伟达对基于Grace Hopper的超算中心寄予厚望,认为此举将加速科学研究进程。

高性能计算 (HPC)是推动科学计算进步的最重要工具之一,从天气预报、能源勘探到计算流体动力学和生命科学,研究人员正在将传统的模拟方法与人工智能、机器学习、大数据分析和边缘计算相融合,以解决重要的科学问题。


高性能计算用于气象建模
高性能计算用于气象建模


英伟达超大规模和高性能计算副总裁Ian Buck在一份声明中表示「人工智能正在加速对气候变化的研究、加快药物发现,并在数十个其他领域取得突破」,「Nvidia Grace Hopper正成为高性能计算的重要组成部分,因为它们能够在提高能源利用效率的同时改造整个行业。」

参考资料:

https://www.tomshardware.com/tech-industry/supercomputers/nvidia-announces-supercomputers-based-on-its-grace-hopper-platform-200-exaflops-for-ai

https://www.extremetech.com/computing/nvidia-gh200-superchip-is-now-powering-9-supercomputers

https://nvidianews.nvidia.com/news/nvidia-grace-hopper-ignites-new-era-of-ai-supercomputing


本文链接:https://www.aixinzhijie.com/article/6845846
转载请注明文章出处

评论
登录 账号发表你的看法,还没有账号?立即免费 注册
下载
分享
收藏
阅读
评论
点赞
上一篇
下一篇