9月12日消息,甲骨文宣布推出多款GPU计算集群,可通过甲骨文云基础设施提供AI训练服务,其中最顶级的一款配备了超过10万块的NVIDIA Blackwell GPU。它一共使用了多达131072万块B200 GPU加速卡,FP8浮点、INT8整数峰值性能高达2.4 ZFlops,也就是24万亿亿...
9月10日消息,美光官方宣布,已经完成12-Hi堆栈的新一代HBM3E高带宽内存,单颗容量达36GB,比之前的8-Hi 24GB增大了足足一半。它将用于顶尖的AI、HPC计算产品,比如NVIDIA H200、B200等加速卡,单卡就能轻松运行700亿参数的Llama2等大模型,不再需要频繁调用CP...
8月31日消息,日前,由中国移动承建的国内运营商最大单集群智算中心在哈尔滨正式运营。据悉,该智算中心具有单集群算力规模最大、国产化网络设备组网规模最大等特点。单集群智算中心把所有AI加速卡打造成1个集群,用以支持千万亿级参数的大模型进行训练。这个集群智算中心通过先进的智算网络技术把上万块GP...
7月29日消息,摩根斯坦利的最新报告称,配备NVIDIA下一代加速AI GPU Blackwell的服务器,每台要价会高达200-300万美元。NVIDIA此前打造了两套基于Blackwell架构的参考设计AI服务器,其中NVL36搭载了36块B200 GPU加速卡,预计要价200万美元,约合人...
6月3日消息,在Computex 2024上,AMD公布了其AI加速卡的全新路线图,展示了未来几年的产品更新计划。根据路线图,MI325X AI加速卡预计将于2024年第四季度发布,作为现有MI300系列的升级版,将采用与MI300系列相同的CDNA 3架构。这款加速卡将配备高达288GB的...
6月2日消息,近日,AMD发布了计算加速卡Alveo V80,专为内存密集型工作负载提供灵活的加速,也是AMD第一款大规模市场化的FPGA加速卡产品。它有着丰富的应用领域和场景,比如基因组学、分子动力学、传感器处理等高性能计算,欺诈检测、公共事业、医疗分析、供应链分析等数据分析,风险分析、算法交易...
5月17日消息,根据来自Intel内部的最新消息,代号Falcon Shores的下一代GPU AI加速卡,功耗将达到史无前例的1500W!这是什么概念?NVIDIA不久前发布的Blackwell架构的B200 GPU加速卡,双芯封装,功耗也才不过1000W,单个核心的B100则是700W。G...
3月27日消息,据媒体报道,市场研究机构Factorial Funds发布了一份报告,其中详细分析了OpenAI部署的文本转视频模型Sora所需的硬件资源。报告指出,在峰值时期,Sora模型预计需要高达72万片英伟达H100 AI加速卡来支持其强大的运算需求。考虑到每片英伟达H100 AI加速卡...