美光宣布量产 hbm3e 内存 将应用于英伟达 h200 ai 芯片-凯发平台

光纤在线编辑部  2024-02-27 11:41:37  文章来源:原文转载  

导读:美光科技今日宣布开始批量生产 hbm3e 高带宽内存,其 24gb 8h hbm3e 产品将供货给英伟达,并将应用于 nvidia h200 tensor core gpu(第二季度开始发货)。

2/27/2024,光纤在线讯,美光科技今日宣布开始批量生产 hbm3e 高带宽内存,其 24gb 8h hbm3e 产品将供货给英伟达,并将应用于 nvidia h200 tensor core gpu(第二季度开始发货)。


    据官方资料获悉, 美光 hbm3e 内存基于 1β 工艺,采用 tsv 封装、2.5d / 3d 堆叠,可提供 1.2 tb / s 及更高的性能。

    美光表示,与竞争对手的产品相比,其 hbm3e 凯发k8官方网娱乐官方的解决方案有着以下三方面的优势:

    -卓越性能:美光 hbm3e 拥有超过 9.2 gb / s 的针脚速率、超过 1.2 tb / s 的内存带宽,可满足人工智能加速器、超级计算机和数据中心的苛刻需求。

    -出色能效:与竞品相比,美光 hbm3e 功耗降低了约 30%,在提供最大吞吐量的前提下将功耗降至最低,有效改善数据中心运营支出指标。

    -无缝扩展: 美光 hbm3e 目前可提供 24gb 容量,可帮助数据中心轻松扩展其 ai 应用。无论是训练大规模神经网络还是加速推理任务都能提供必要的内存带宽。

    美光科技执行副总裁兼首席商务官 sumit sadana 表示:“美光科技凭借这一 hbm3e 里程碑实现了三连胜:上市时间领先、一流的行业性能以及差异化的能效概况。”“人工智能工作负载严重依赖内存带宽和容量,美光处于有利位置,可以通过我们业界领先的 hbm3e 和 hbm4 路线图以及我们用于人工智能应用的完整 dram 和 nand 凯发k8官方网娱乐官方的解决方案组合来支持未来人工智能的显著增长。”。

    hbm 是美光科技最赚钱的产品之一,部分原因在于其构造所涉及的技术复杂性。该公司此前曾表示,预计 2024 财年 hbm 收入将达到“数亿”美元,并在 2025 年继续增长。

    美光还宣布将会在 3 月 18 日召开的全球人工智能大会上分享更多有关其行业领先的人工智能内存产品组合和路线图的信息。

【来源:it之家】
关键字: 美光
光纤在线

光纤在线公众号

更多猛料!欢迎扫描左方二维码关注光纤在线官方微信

相关产品

热门搜索

热门新闻

最新简历

  •  阳江 副总经理/副总裁品保经理/主管营运经理/主管
  •  衡阳 请选择职位
  •  深圳 副总经理/副总裁研发部经理项目经理/主管
  •  淮安 项目经理/主管技术/工艺设计工程师凯发平台的技术支持工程师
  •  深圳 生产/工程技术类全部生产/工程技术类全部生产/工程技术类全部

展会速递

微信扫描二维码
使用“扫一扫”即可将网页分享至朋友圈。
网站地图