快科技9月12日消息,甲骨文宣布推出多款GPU计算集群,可通过甲骨文云基础设施提供AI训练服务,其中最顶级的一款配备了超过10万块的NVIDIA Blackwell GPU。
它一共使用了多达131072万块B200 GPU加速卡,FP8浮点、INT8整数峰值性能高达2.4 ZFlops,也就是24万亿亿次每秒。
它的基本节点是NVIDIA GB200 NVL72液冷机柜,每一个内置72块GPU加速卡,不同机柜之间通过129.6TB/s带宽的NVLink总线进行互联。
无论加速卡的数量,还是峰值性能,都超过了马斯克。
不过它目前还只是纸面宣布,甲骨文称NVIDIA要到明年上半年才会批量供货Blackwell GPU,而这个庞大集群何时上线还没有准确的时间。
第二套集群配备了16384块NVIDIA H100,FP8/INT8峰值性能65 PFlops(6.5亿亿次每秒),带宽吞吐总量13Pbps。
第三道集群则是65536块NVIDIA H200,FP8/INT8峰值性能260 EFlops(2.6万亿亿次每秒),带宽吞吐总量52Pbps,今年晚些时候上线。
WideLabs、Zoom等企业已经开始采用甲骨文的新集群服务。
总结
**甲骨文推出多款GPU计算集群,加速AI训练服务**甲骨文公司近期宣布了其在GPU计算领域的重大进展,通过其云基础设施推出了多款专为AI训练服务设计的计算集群。这些集群不仅展示了甲骨文在高性能计算领域的雄心,也标志着AI训练能力的一次飞跃。
其中最引人注目的集群配备了超过10万块的NVIDIA Blackwell GPU,具体数量高达131072块B200 GPU加速卡。这一配置使得该集群在FP8浮点和INT8整数运算上达到了惊人的2.4 ZFlops(即24万亿亿次每秒)峰值性能,远超当前行业标杆。该集群采用NVIDIA GB200 NVL72液冷机柜作为基础单元,每个机柜内置72块GPU,并通过高达129.6TB/s带宽的NVLink总线实现机柜间的互联,确保了数据传输的高效与稳定。
值得注意的是,尽管这一集群在性能上遥遥领先,包括超越了特斯拉CEO马斯克所提及的类似项目,但目前仍处于纸面宣布阶段。甲骨文表示,NVIDIA的Blackwell GPU预计将在明年上半年开始批量供货,而该庞大集群的具体上线时间尚未确定。
此外,甲骨文还推出了另外两款GPU计算集群。第二套集群配备了16384块NVIDIA H100 GPU,峰值性能达到65 PFlops(6.5亿亿次每秒),带宽吞吐总量为13Pbps。而第三套集群则更为强大,拥有65536块NVIDIA H200 GPU,峰值性能飙升至260 EFlops(2.6万亿亿次每秒),带宽吞吐总量更是高达52Pbps,且计划于今年晚些时候正式上线。
这些高性能GPU计算集群的推出,无疑将为AI训练领域带来前所未有的计算能力支持。WideLabs、Zoom等知名企业已经率先采用甲骨文的新集群服务,预示着这些技术将在实际应用中发挥重要作用,推动AI技术的进一步发展与应用。