美光宣布单颗36GB HBM3E内存:惊人带宽1.2TB/s

美光宣布单颗36GB HBM3E内存:惊人带宽1.2TB/s

9月10日消息,美光官方宣布,已经完成12-Hi堆栈的新一代HBM3E高带宽内存,单颗容量达36GB,比之前的8-Hi 24GB增大了足足一半。它将用于顶尖的AI、HPC计算产品,比如NVIDIA H200、B200等加速卡,单卡就能轻松运行700亿参数的Llama2等大模型,不再需要频繁调用CP...
国内最大智算中心正式投用:每秒690亿亿次浮点运算 可训练万亿参数大模型

国内最大智算中心正式投用:每秒690亿亿次浮点运算 可训练万亿参数大模型

8月31日消息,日前,由中国移动承建的国内运营商最大单集群智算中心在哈尔滨正式运营。据悉,该智算中心具有单集群算力规模最大、国产化网络设备组网规模最大等特点。单集群智算中心把所有AI加速卡打造成1个集群,用以支持千万亿级参数的大模型进行训练。这个集群智算中心通过先进的智算网络技术把上万块GP...
NVIDIA一台B200 GPU服务器就要2200万!一年轻松上万亿

NVIDIA一台B200 GPU服务器就要2200万!一年轻松上万亿

7月29日消息,摩根斯坦利的最新报告称,配备NVIDIA下一代加速AI GPU Blackwell的服务器,每台要价会高达200-300万美元。NVIDIA此前打造了两套基于Blackwell架构的参考设计AI服务器,其中NVL36搭载了36块B200 GPU加速卡,预计要价200万美元,约合人...
AMD发布全新计算加速卡Alveo V80:自带32GB BHM2E、800G网络

AMD发布全新计算加速卡Alveo V80:自带32GB BHM2E、800G网络

6月2日消息,近日,AMD发布了计算加速卡Alveo V80,专为内存密集型工作负载提供灵活的加速,也是AMD第一款大规模市场化的FPGA加速卡产品。它有着丰富的应用领域和场景,比如基因组学、分子动力学、传感器处理等高性能计算,欺诈检测、公共事业、医疗分析、供应链分析等数据分析,风险分析、算法交易...
NVIDIA B200都自愧不如!Intel下代AI加速卡功耗1500W

NVIDIA B200都自愧不如!Intel下代AI加速卡功耗1500W

5月17日消息,根据来自Intel内部的最新消息,代号Falcon Shores的下一代GPU AI加速卡,功耗将达到史无前例的1500W!这是什么概念?NVIDIA不久前发布的Blackwell架构的B200 GPU加速卡,双芯封装,功耗也才不过1000W,单个核心的B100则是700W。G...
  • 1
  • 共 1 页