当前位置: 首页 » 资讯 » 新科技 » 正文

发布一揽子新品,AMD再次挑战英伟达!但败局早已注定?

IP属地 北京 编辑:李娜 雷科技 时间:2024-10-15 16:16:00

前段时间,AMD在旧金山正式发布了一系列全新的产品,包括新一代的AI PC处理器、EPYC处理器、GPU加速卡等多款重磅产品。作为英伟达为数不多的友商,AMD对这一波新品寄予厚望,发布会还特意邀请了OpenAI、微软等巨头的大佬来站台,然而市场对其产品却不看好,其股价也应声下跌。难道AMD挑战英伟达的计划,还没开始就结束了?

AMD为何追不上英伟达?

AMD作为目前唯一一个有能力在GPU加速卡领域向英伟达发起挑战的厂商,其实很难说他们是失败者,毕竟除英伟达之外,其余厂商加起来也是不如AMD能打的。从AMD此次发布的一系列新品来看,其正在加快追赶英伟达的步伐,以最新的Instinct MI325X为例,其推理性能甚至比英伟达刚发货的H200还高20%以上。

不过强大的推理性能是靠远大于H200的显存所换来的,MI325X拥有多达256GB的HBM3E内存,这是目前全球性能最强的内存,连带着内存带宽也从5.3TB/s升级到6TB/s,成为AMD进一步拉升MI325X推理性能的一环。

图源:AMD

而在AI运算性能上,MI325X并没有比MI300X提高多少,FP16精度下算力为1.3PFlops,作为对比,英伟达H200的FP16算力为1.979PFlops,差距仍然十分明显,更何况英伟达还提供具有同样算力性能的H100。

虽然在算力上有着明显的差距,但是MI325X的功耗却并不低,根据AMD透露的消息,其单颗核心的功耗高达1000W,与英伟达H200基本持平。在过去的一年里,大多数企业都将资源投入到了AI模型的训练中,因此需要大量的算力资源支撑,在部署空间有限的情况下,英伟达的H100显然是最好的选择。

更何况H100是英伟达在2022年3月份发布的GPU加速卡,从中也不难看出在芯片算力层面,英伟达与AMD的技术差距仍然非常明显。而且,英伟达在前段时间发布了H100的继任者B200,算力和推理能力都得到了显著的提升,其中FP16精度下的运算性能直接飙升到5PFlops,是H100的2.5倍,是MI325X的3.8倍。

图源:英伟达

3.8倍的算力差距已经不是价格或者功耗可以弥补的差距了,即使你可以通过部署4台MI325X服务器来获得媲美1台B200服务器的算力,但是也会面对更多的维护、调试和Debug麻烦。更何况,在多数情况下,计算中心的内部空间都是有限的,如何在有限的空间里塞入更多的算力,往往是企业考虑得更多的问题。

所以,AMD在过去的半年时间里,即使发布了更具性价比的MI300X,也依然无法撼动英伟达的地位,甚至不需要去讨论生态等问题,仅仅一个算力规模和效率差距就已经让AMD难以招架。

不过AMD的AI业务还是得到了不少的订单,原因主要是英伟达的产能无法满足所有需求,外溢的订单转而被AMD接受,此外如微软等企业,也在通过采购AMD GPU的方式来降低对英伟达的依赖。

只是情况如你所见,微软、OpenAI、谷歌等企业最新最大的AI算力集群,仍然都是将英伟达的H200列为首选。而AMD的MI300X等GPU,则主要被部署到其他数据中心,作为云端算力支持进行储备。

如果企业们仍然以AI算力为基准去配置数据中心,那么AMD想要战胜英伟达,只能祈祷奇迹发生,让他们打造出一款算力效率超过B200的芯片。不过,事情并非没有转机,随着AI大模型的训练规模达到一定高度,企业也逐渐将目光投向了应用层面,而这就是AMD的机会了。

在AI落地端发力,AMD能否换道超车?

不管是微软还是OpenAI,所有的AI厂商其实都在思考一个问题:AI服务推广,或者说:如何让AI服务被更多的人使用?

想要解决这个问题,首先需要搞定AI成本,以OpenAI为例,其在2024年预计将面临50亿美元的亏损,其中除了新建数据中心所需要投入的资金外,其余大多是维护和运营现有算力中心的成本,而ChatGPT高达19.99美元/月的高级订阅会员,已经让多数用户“摇头”,不少人都希望OpenAI可以降低资费,那么就能够获得更多的客户。

实话说,对于OpenAI而言,19.99美元的价格其实并不能确保其盈利,如果用户将其用于训练自己的大模型或是其他用途,那么实际上的算力成本会大大超出OpenAI向你收取的订阅费用,这也是为何前段时间他们突然开始加大力度封禁部分违规使用的账户,正是因为成本的激增正在进一步降低OpenAI的利润。

虽然很多时候我们都将GPU加速卡的AI算力看作是一个整体,但是在实际的应用中,用于预训练的算力性能与用于推理的算力性能,其实并不能直接等同。其中,推理性能主要决定的是在已加载的AI模型下,GPU能够提供的运算性能,在功耗固定的情况下,推理算力越强,GPU在执行AI任务时的成本就越低。

换言之,如果企业想降低AI服务的成本,让AI可以被应用到更广泛的领域,那么推理效率高的GPU就是必选项。那么AMD MI325X的定位就很明显了:为企业提供更低成本的AI算力,支撑AI应用落地。

实话说这个赛道英伟达不是没有注意到,今年才开始交付的H200就是为了解决推理成本发布的产品,其核心虽然仍是H100,但是却拥有141GB显存(H100为80GB),同时也对显存带宽进行了升级,进一步强化推理性能。

图源:英伟达

但是这还不够,随着AI应用的规模扩大,AI服务对算力的需求也在呈现爆发式的增长,而H200的供应却难以满足需求,这时候MI325X的优势就体现出来了,不仅拥有高达256GB的显存,而且价格比H200更低,供应也比H200充足。

所以,你可以看到微软、OpenAI等企业为AMD站台,不仅仅是为了降低英伟达对他们的掌控力,同样也是为了可以提前买到更多的MI325X,并将其作为普及AI服务的关键。

至少,在英伟达的B200批量出货前,MI325X都会是数据中心的优选,至于B200发布后如何应对,也就只能见招拆招了。毕竟从目前的情况来看,AMD不大可能在2025年前开发出性能接近B200的GPU,此前海外媒体推论,最快要到2026年,AMD才可能拥有接近B200性能的GPU,届时英伟达的B200乃至GB200(2*B200组成的单个GPU)都已经批量发货,AMD也将面临与今年年初类似的尴尬场景。

只能说AMD还是有机会的,即使无法撼动英伟达的领先地位,也可以抢下不少的市场份额。AI已经开始全面融入我们的生活,不管你承不承认,很多领域都已经与AI产生了联系,随着AI的进一步普及,也将更多地参与到民生经济中,为了维持AI社会的运转将需要庞大的算力,远非现在的数据中心可以满足的。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新