AmpereComputing 发布了年度更新,展示了即将推出的产品和里程碑,强调了其在云和人工智能可持续、基于 ARM 的节能计算方面的持续创新。此次发布的重点是推出了一款突破性的 CPU,该 CPU 有望提供比当前市场产品高出 40% 的性能。
AmpereComputing 发布了年度更新,展示了即将推出的产品和里程碑,强调了其在云和人工智能可持续、基于 ARM 的节能计算方面的持续创新。此次发布的重点是推出了一款突破性的 CPU,该 CPU 有望提供比当前市场产品高出 40% 的性能。
年度更新包括 Ampere 与 Qualcomm Technologies 的合作。两家公司正在共同开发人工智能推理的联合解决方案。该解决方案将利用高通的 Cloud AI 100 推理解决方案与 Ampere 的 CPU 相结合,满足人工智能日益增长的功耗需求。
Ampere 的 ARM 方法专注于在保持低功耗的同时最大限度地提高性能,挑战高性能需要高功耗的传统观念。该公司已经证明,可以在高效的功率范围内实现卓越的性能,超越传统 CPU 的功能。
Ampere 强调了数据中心当前功耗趋势的不可持续轨迹。他们主张使用更高效的计算解决方案改造风冷环境,并建立与可用电网相一致的新的、环境可持续的数据中心。
今年更新期间发布的其他公告包括以下新闻亮点:
- 安培计算在最新更新中宣布了几项重大进展。该公司正在与 Qualcomm Technologies 合作,创建一个采用 Ampere CPU 和 Qualcomm Cloud AI 100 Ultra 的联合解决方案,旨在处理业界最重要的生成式 AI 模型的 LLM 推理。
- 此次更新强调了 Ampere 12 通道平台的扩展以及即将推出的 256 核 AmpereOne CPU。该 CPU 承诺比当前市场上任何 CPU 的性能提高 40% 以上,同时保持与现有 192 核 AmpereOne 相同的风冷散热解决方案。 192核版本预计仍将在今年晚些时候发布。
- 另一项进步是,Meta 的 Llama 3 现在可以在 Oracle 云上的 Ampere CPU 上运行。性能数据表明,在不带 GPU 的 3 核 Ampere Altra CPU 上运行 Llama 128 与搭配 x10 CPU 的 NVIDIA A86 GPU 的性能相当,而功耗仅为后者的三分之一。
- Ampere 还宣布成立 UCIe 工作组,作为人工智能平台联盟的一部分。该举措将利用开放接口技术增强 CPU 的灵活性,允许将其他客户的 IP 集成到未来的 CPU 中。
- 提供了有关 AmpereOne 性能和 OEM/ODM 平台的更多详细信息,强调其在每瓦性能方面的持续领先地位,分别超过 AMD Genoa 和 Bergamo 50% 和 15%。寻求升级和整合基础设施的数据中心将能够利用 AmpereOne 将每个机架的性能提高高达 34%。新的 AmpereOne OEM 和 ODM 平台预计将在几个月内发货。
- Ampere 与 NETINT 合作,推出了一种联合解决方案,使用 Quadra T1U 视频处理芯片和 Ampere CPU 对 360 个直播频道进行转码,并使用 OpenAI 的 Whisper 模型为 40 个多语言流提供实时字幕。
- 最后,Ampere 推出了一项新的 FlexSKU 功能,允许客户在横向扩展和纵向扩展用例中使用相同的 SKU。此功能补充了内存标记、QOS 强制和网状网络拥塞管理等现有功能。
基于 Ampere ARM 的 CPU 用途广泛,能够运行各种工作负载,从流行的云原生应用程序到人工智能驱动的任务。这包括将人工智能与数据处理、网络服务和媒体交付等传统应用程序集成。
参与 StorageReview
电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅