首页 企业版 美光 HBM3 Gen2:推动人工智能创新并加速企业实施

美光 HBM3 Gen2:推动人工智能创新并加速企业实施

by 乔丹拉努斯

美光科技公司 (Micron Technology, Inc.) 推出了下一代高带宽内存 HBM3 Gen2。 这种先进的内存解决方案拥有前所未有的规格,优于之前的迭代,有可能重新定义企业实施人工智能并从中受益的方式。

美光科技公司 (Micron Technology, Inc.) 推出了下一代高带宽内存 HBM3 Gen2。 这种先进的内存解决方案拥有前所未有的规格,优于之前的迭代,有可能重新定义企业实施人工智能并从中受益的方式。

美光 HBM3 Gen2

增强生成式人工智能

生成式人工智能和法学硕士在很大程度上取决于您可以为训练和推理提供的内存量。 这些人工智能模型的性能通常取决于计算和内存资源的效率。 美光的 HBM3 Gen2 提供了更高的内存容量,有望提高人工智能和大数据任务的整体性能和企业投资回报。

由于层数的改进,性能提升将实现更快的训练,并在法学硕士的推理过程中提供更灵敏的查询。 内存性能的这一飞跃将有助于企业距离能够更快响应并提供更精确输出的人工智能部署更近了一步。

“HBM3 Gen2 提供了更高的内存容量,可提高性能并减少 CPU 卸载,从而在推理 LLM(例如 ChatGPT™)时实现更快的训练和更灵敏的查询。” – 微米

深度学习驶入快车道

随着人工智能继续渗透到从商业和 IT 到科学和医学的所有领域,对更大、更复杂的人工智能模型的需求正在不断增长。 美光的 HBM3 Gen2 旨在通过提供平衡性能、成本和功耗的高效内存解决方案来满足这一需求。 美光科技的最新产品强调提高每瓦性能的能源效率,一旦在 GPU、ASIC 和 CPU 中实施,将有助于减少 LLM 的训练时间和持续微调,从而实现此类模型在企业中的合规部署。

为高性能计算提供动力

HBM3 Gen2 不仅将成为人工智能的重要资产,而且还将成为更传统的高性能计算领域的重要资产。 负责解决依赖 HPC 的建模或模拟等复杂问题的科学家和研究人员正在处理不断扩展的数据集。 美光的新型内存解决方案具有更高的内存容量,通过减少跨多个节点分发数据的需要来提供更高的性能,从而通过降低复杂性或增加机架密度来加速关键领域的创新。

“美光 HBM3 Gen2 减少了跨多个节点分发数据的需要,从而提供了更高的内存容量并提高了性能,从而加快了创新的步伐。”

行业领先的规格,最大化性能

美光的 HBM3 Gen2 具有令人印象深刻的规格,突破了内存性能的界限。 HBM1.2 Gen50 的内存带宽超过 8TB/s,每个 24 高 2.5GB 立方体的内存容量增加 3%,每瓦性能提高超过 2 倍,旨在满足 AI 和 HPC 工作负载的苛刻需求。

值得注意的是,HBM3 Gen2 卓越的内存带宽和容量允许以更高的精度和准确度训练 AI 模型。 它还有助于将训练时间减少 30% 以上,并允许每天增加 50% 以上的额外查询。 这些改进将彻底改变法学硕士的生命周期,并改变人工智能应用在企业中的潜力。

我们很高兴能在实验室中获得一些美光 HBM3 Gen2,但这可能需要一段时间。 它代表了内存解决方案领域向前迈出的重要一步,并将为人工智能实施和高性能计算提供急需的推动力。 但是,我们还需要相当长的一段时间才能在打包解决方案中看到这一点。 在那之前,我们将不得不等待即将发生的事情。

参与 StorageReview 

电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅