每经记者 郑雨航 实习记者 宋欣悦 每经编辑 兰素英
当地时间10月10日,在旧金山举行的Advancing AI 2024大会上,AMD 推出 Instinct MI325X AI加速器(以下简称MI325X),直接与英伟达的Blackwell芯片正面交锋。
现场展示的数据显示,与英伟达H200的集成平台H200 HGX对比,MI325X平台提供1.8倍的内存量、1.3倍的内存带宽和1.3倍的算力水平。AMD表示,这款AI芯片预计在2024年第四季度正式投产,2025年一季度开始向客户交付。
AMD还在会上公布了最新的AI芯片路线图,采用该公司CDNA 4架构的MI350系列明年上市,MI400系列将采用更先进的CDNA架构。AMD首席执行官苏姿丰(Lisa Su)表示,到2028年,数据中心、AI和加速器市场预计将增长至5000亿美元。
市场研究机构Moor Insights&Strategy首席分析师帕特里克·莫尔黑德(Patrick Moorhead)表示,“AMD面临的最大挑战是获得企业市场份额。AMD需要在销售和营销方面投入更多资金,以加速其企业增长。很难评估AMD与英伟达在数据中心GPU方面的地位”。
性能大幅提升
在发布会开场,苏姿丰表示,到2028年,数据中心、AI和加速器市场预计将增长至5000亿美元。她认为,生成式AI在其中将起到关键作用,为支持AI训练和推理,需要大量投资新的基础设施。而在这样的前提下,未来4年内市场将以每年70%以上的速度增长。
苏姿丰还表示,对于AMD而言,AI平台具备四大核心要素:首先,它代表了作为训练和推理任务中最强大的计算引擎;其次,提供开放的软件解决方案;再者,致力于构建一个深度协作、共同创新的AI生态系统;最后,在集群层面实现系统设计的优化。
在发布会上,AMD宣布正式推出MI325X AI加速器。这款芯片采用了AMD CDNA 3 GPU架构,配备 256GB 下一代HBM3E高带宽内存,内置1530亿个晶体管。它提供6TB/s的内存带宽,在FP8和FP16精度下分别达到2.6 PF和1.3 PF的峰值理论性能。
与英伟达H200的集成平台H200 HGX对比,MI325X平台提供1.8倍的内存量、1.3倍的内存带宽和1.3倍的算力水平。
苏姿丰还表示,在运行meta的Llama 3.1大模型时,MI325X的推理性能比H200高出40%。
AMD表示,这款AI芯片预计在2024年第四季度正式投产,2025年一季度开始向客户交付。
随着MI325X的发布,AMD正加速推进其产品更新,计划“一年一迭代”,旨在更有效地与英伟达竞争,并抓住AI芯片市场的蓬勃发展机遇。这款全新的AI芯片就是去年底开始交付的MI300X系列的后续产品。
AMD还公布了最新的AI芯片路线图,采用该公司CDNA 4架构的MI350系列预计明年上市。其中,MI355X的AI峰值算力达到74 PF,MI400系列将采用更先进的CDNA架构。
面临企业市场挑战
据外媒报道,过去数年间,英伟达在数据中心GPU市场中占据了主导地位,几乎构成了垄断,而AMD则长期稳居次席。
今年年初,英伟达又发布了其性能最强的产品B200,运算速度比上一代H200芯片提升将近30倍。按计划,B200将在今年第四季度量产上市,届时又将与竞争对手拉开差距。
如今,MI325X的推出将使其与英伟达的Blackwell芯片相抗衡。AMD在与英伟达的竞争中,长期将自身看作“市场的多一种选择”。苏姿丰此前在接受CNBC采访时表示,AI芯片市场足够大,容得下多家企业,“AMD不是必须要打败英伟达才能成功”。
AMD在抢占市场份额时遇到的最大难题,在于英伟达利用自家CUDA平台,已在AI软件开发领域建立起一条护城河,把不少开发人员牢牢绑定在了英伟达的生态系统里。
对此,AMD回应称,他们一直在不断优化名为ROCm的软件,目的就是让AI开发人员能更轻松地把更多AI模型“搬”到AMD的芯片上。目前,ROCm的最新版本6.2,相较于旧版在推理和训练上都有了超过2倍的提升。
莫尔黑德表示,“AMD面临的最大挑战是获得企业市场份额。AMD需要在销售和营销方面投入更多资金,以加速其企业增长。很难评估AMD与英伟达在数据中心GPU方面的地位”。
莫尔黑德补充道:“AMD的新GPU,尤其是MI350,与前代产品相比,效率和性能都有所提高,对低比特率模型的支持也更好,这是一个巨大的进步。这是一场激烈的竞逐,英伟达遥遥领先,AMD正在迅速追赶并取得了有意义的成果。”
对此,有网友在社交媒体上留言,指出AMD积极投身行业竞争的态度值得肯定。然而,AMD能否在这场竞争中取得显著胜利,尚需进一步观察。
还有网友表示,AMD已在与英特尔的较量中胜出。言外之意是,要赶上英伟达,AMD还有很长的路要走。