发布时间:2024-07-11 16:23:11 栏目:社会动态
在台北国际电脑展的主题演讲中,AMD董事长兼首席执行官苏姿丰博士公布了 AMD Instinct 加速器系列的重大进展。该公司宣布了该加速器扩展的多年发展路线图,承诺每年改进 AI 性能和内存功能。这标志着 AI 和数据中心工作负载的创新新时代。
更新后的路线图以新的 AMD Instinct MI325X 加速器开始,该加速器将于 2024 年第四季度上市。该加速器具有 288GB HBM3E 内存和每秒 6 TB 的内存带宽。它采用通用底板服务器设计,确保与 AMD Instinct MI300 系列兼容。
MI325X 拥有业界领先的内存容量和带宽,性能分别比竞争对手高出 2 倍和 1.3 倍。其计算性能比竞争对手高出 1.3 倍,使其成为 AI 工作负载的强大工具。
继 MI325X 之后,采用全新 AMD CDNA 4 架构的 AMD Instinct MI350 系列预计将于 2025 年推出。该系列将带来 AI 推理性能的大幅飞跃,预计与 AMD Instinct MI300 系列相比,性能将提高 35 倍。MI350X 加速器将保留通用底板设计,采用先进的 3nm 工艺技术,支持 FP4 和 FP6 AI 数据类型,并配备高达 288GB 的 HBM3E 内存。
展望未来,基于 AMD CDNA“Next”架构的 AMD Instinct MI400 系列预计将于 2026 年发布。该系列将引入最新的特性和能力,旨在提高大规模 AI 训练和推理任务的性能和效率。
AMD Instinct MI300X 加速器的采用和影响
AMD Instinct MI300X 加速器得到了主要合作伙伴和客户的大力采用,包括 Microsoft Azure、Meta、戴尔科技、HPE、联想等。AMD 数据中心加速计算公司副总裁 Brad McCredie 强调了 MI300X 加速器的卓越性能和价值主张,并指出它们在推动 AI 创新方面发挥了重要作用。他表示:“随着我们每年更新产品节奏,我们不断创新,为 AI 行业提供领先的能力和性能,我们的客户期望推动数据中心 AI 训练和推理的下一次发展。”
AMD AI 软件生态系统的进步
AMD ROCm 6 开放软件堆栈不断成熟,使 AMD Instinct MI300X 加速器能够为流行的大型语言模型 (LLM) 提供令人印象深刻的性能。在使用八个 AMD Instinct MI300X 加速器和运行 Meta Llama-3 70B 的 ROCm 6 的服务器上,客户可以实现比竞争对手高 1.3 倍的推理性能和令牌生成。
免责声明:本文由用户上传,如有侵权请联系删除!