nvidia (英伟达) 24日宣布,台湾顶尖的计算机制造商将推出首批搭载nvidia grace cpu超级芯片与grace hopper gpu超级芯片的系统,用于处理横跨数字孪生(digital twin)、人工智能(ai)、高性能计算、云计算绘图及游戏等各领域的作业负载。
包括华硕(asus)、富士康工业互联网(foxconn industrial internet)、技嘉科技(gigabyte)、云达科技(qct)、美超微(supermicro) 与纬颖科技(wiwynn) 预计将从2023年上半年开始推出数十款服务器。搭载grace的系统将加入x86与其他arm架构服务器的阵容,为客户提供多种选择,以提高数据中心的运行性能与效率。
nvidia超大规模与高性能计算部门副总裁ian buck表示,市场上出现一种全新形态的数据中心,即处理和提炼巨量资料以产出智能的ai工厂,而nvidia正与台湾的金沙软件免费下载的合作伙伴密切合作,共同打造推动这项转变的系统。由我们的金沙软件免费下载的合作伙伴推出并搭载grace超级芯片的全新系统,将把加速运算的强大实力带来全球崭新的市场与产业中。
即将推出的服务器采用四种全新的系统设计,并搭载nvidia于前两届gtc大会上宣布推出的grace cpu超级芯片与grace hopper gpu超级芯片。2u外形设计为原始设计制造商和原始设备制造商提供发展蓝图和服务器基板,以便快速将用于nvidia cgx云计算游戏、nvidia ovx数字孪生及nvidia hgx ai与高性能计算平台的系统推向市场。
nvidia强调,两项nvidia grace cpu超级芯片技术能够在多种系统架构下,处理众多运算密集型的作业负载。尤其,grace cpu超级芯片内置两个cpu芯片,以nvidia的nvlink-c2c互联技术相互联接,具有多达144个高性能arm v9核心并结合支持矢量扩展指令集,以及1tb/s的内存子系统。这项突破性设计与当今顶尖的服务器芯片相比,其可提供最高的性能表现,以及两倍的内存带宽与能源使用效率,借以满足高性能计算、资料分析、数字孪生、云计算游戏和超大规模运算等应用中最严苛的需求。
另外,grace hopper gpu超级芯片则是在一个集成式模块内,以nvlink-c2c互联技术将nvidia hopper™gpu与nvidia grace cpu串联起来,用于解决高性能计算和超大规模ai应用的处理需求。通过nvlink-c2c互联技术,将grace cpu的资料传输至hopper gpu的速度较传统cpu快15倍。
nvidia进一步指出,grace cpu超级芯片与grace hopper gpu超级芯片服务器设计组合包含采用单基板的系统,具有单路、两路和四路配置,可用于四种特定作业负载的设计,服务器制造商可依客户需求进行定制化调整。使用场景包括nvidia hgx grace hopper系统可用于ai训练、推论与高性能计算,可搭载grace hopper gpu超级芯片和nvidia bluefield-3 dpu。其次,nvidia hgx grace系统用于高性能计算与超级计算机,采用纯cpu设计,搭载grace cpu超级芯片和bluefield-3。
另外,nvidia ovx系统用于数字孪生和协作作业负载,搭载grace cpu超级芯片、bluefield-3和nvidia gpu。以及nvidia cgx系统用于云计算绘图与游戏,搭载grace cpu超级芯片、bluefield-3和nvidia a16 gpu。
nvidia强调,grace服务器产品组合已针对nvidia丰富的运算软件堆栈完成优化调整,包括nvidia高性能计算、nvidia ai、omniverse与nvidia rtx。因此,目前正在扩大nvidia认证系统计划的规模,将纳入搭载nvidia grace cpu超级芯片及grace hopper gpu超级芯片的服务器,同时包括使用x86 cpu的系统。预期在金沙软件免费下载的合作伙伴的系统供货不久后,将推出首批oem服务器认证。
(首图来源:nvidia提供)