发表时间:2024-03-20 04:59:51 浏览:0
至于GB200,就是将两个GPU和一个Grace CPU结合在一起,可为LLM推理工作负载提供30倍的性能,同时还可能大大提高效率。英伟达也形象给出了提升的高度,比如训练一个1.8万亿个参数的模型以前需要8000个Hopper GPU和15兆瓦的电力。如今,2000个Blackwell GPU就能完成这项工作,耗电量仅为4兆瓦。不过,英伟达并没有公布关于B200和其相关产品的价格,只表示亚马逊、谷歌、微软和甲骨文等公司都已计划在其云服务产品中装配NVL72机架,但没有公布这些公司的购买数量,只透露了亚马逊AWS已计划采购由2万片GB200芯片组建的服务器集群,可以部署27万亿个参数的模型。
Cryin:WE可以把汤圆搞过去!骇客:登峰组找了汤圆的感觉是WE!
H4cker:本来希望调到明天下午三点,但某一方管理层不同意
Vampire:今天我们减少了很多小失误减少中期失误葬送掉比赛
scout:非常感谢今天来现场支持的粉丝们大家辛苦了!安全第一!
GALA:我们确实需要一些比赛去找到更好的状态Wei比以前打的更好