美光宣布量产 HBM3e 内存,将应用于英伟达 H200 AI 芯片
IT之家
2024-02-27 00:32:49

原标题:美光宣布量产 HBM3e 内存,将应用于英伟达 H200 AI 芯片

IT之家 2 月 26 日消息,美光科技今日宣布开始批量生产 HBM3E 高带宽内存,其 24GB 8H HBM3E 产品将供货给英伟达,并将应用于 NVIDIA H200 Tensor Core GPU(第二季度开始发货)。

IT之家查询官方资料获悉, 美光 HBM3e 内存基于 1β 工艺,采用 TSV 封装、2.5D / 3D 堆叠,可提供 1.2 TB / s 及更高的性能。

美光表示,与竞争对手的产品相比,其 HBM3E 解决方案有着以下三方面的优势:

  • 卓越性能:美光 HBM3E 拥有超过 9.2 Gb / s 的针脚速率、超过 1.2 TB / s 的内存带宽,可满足人工智能加速器、超级计算机和数据中心的苛刻需求。
  • 出色能效:与竞品相比,美光 HBM3E 功耗降低了约 30%,在提供最大吞吐量的前提下将功耗降至最低,有效改善数据中心运营支出指标。
  • 无缝扩展: 美光 HBM3E 目前可提供 24GB 容量,可帮助数据中心轻松扩展其 AI 应用。无论是训练大规模神经网络还是加速推理任务都能提供必要的内存带宽。

美光科技执行副总裁兼首席商务官 Sumit Sadana 表示:“美光科技凭借这一 HBM3E 里程碑实现了三连胜:上市时间领先、一流的行业性能以及差异化的能效概况。”“人工智能工作负载严重依赖内存带宽和容量,美光处于有利位置,可以通过我们业界领先的 HBM3E 和 HBM4 路线图以及我们用于人工智能应用的完整 DRAM 和 NAND 解决方案组合来支持未来人工智能的显著增长。”。

HBM 是美光科技最赚钱的产品之一,部分原因在于其构造所涉及的技术复杂性。该公司此前曾表示,预计 2024 财年 HBM 收入将达到“数亿”美元,并在 2025 年继续增长。

美光还宣布将会在 3 月 18 日召开的全球人工智能大会上分享更多有关其行业领先的人工智能内存产品组合和路线图的信息。

相关内容

热门资讯

美国纽约州长签署先进AI限制法... 来源:格隆汇APP 格隆汇12月20日|12月19日,美国州长凯西·霍楚(Kathy Hochul)...
楚天龙:数字人民币业务覆盖多核... 证券之星消息,楚天龙(003040)12月18日在投资者关系平台上答复投资者关心的问题。 投资者提问...
2025中国移动无限流量卡攻略... 办卡关注 微 信 公 众 号 :找卡乐园 这里是专为你打造的流量卡服务站,既能帮你揭开流量卡市场的各...
国产万卡级智能计算系统真机亮相 18日,在江苏昆山举行的光合组织2025人工智能创新大会上,中科曙光发布并展出了全球领先的大规模智能...
2025年1月联通流量卡推荐全... 办卡:微 信 公 众 号 搜【 可可 找卡】,每天更新运营商官方高性价比套餐!帮你精准匹配适配流量方...