“忙不过来了。”从春节到元宵,AI芯片和算力厂商的工程师们没有停过一刻忙碌。
奔忙的背后是为了一条名为DeepSeek的“鲇鱼”,其低算力、高性能、开源等特性,使原本卡在算力“瓶颈”中的国产AI再一次拉满想象力。
从大年初四到大年初十,十多家国产AI芯片和算力企业相继加入DeepSeek“朋友圈”,彼时工程师们忙的是DeepSeek模型的适配和服务上架;而如今,要问这些企业在忙什么,得到的回复可能会很统一——部署。
据了解,目前行业正从DeepSeek的适配过渡向部署和应用,企业一方面迎来大量用户咨询,全力响应用户需求,另一方面也正在打造DeepSeek版智算一体机,加速AI应用落地。“DeepSeek真正能成为生产力工具、满足应用落地需求的大模型,可以预期,2025年大模型的应用落地会爆发起来。”业内人士称。
过去两年多,ChatGPT带飞了算力产业,并将英伟达送上“国王宝座”。国产算力厂们苦寻出路。如今,DeepSeek凿开了一个口子,天光已现,但国产算力能否一飞冲天,还有待考验。
有业内人士分析,DeepSeek带来推理算力需求激增,行业可能迎来新一轮的洗牌,未来或是性价比之争。
2月13日,DeepSeek概念股午后再度拉升走高,宏景科技20cm涨停,优刻得(688158.SH)、弘信电子(300657.SZ)、并行科技(839493.BJ)涨超10%。
图源:图虫创意
紧急“适配”
事实上,国产算力厂商的“适配潮”仍在继续。
例如,早在2月4日,华为就宣布联合硅基流动首发并上线基于华为云昇腾云服务的DeepSeekR1/V3推理服务。但直到2月12日,华为云才再次发文宣布,DeepSeek V3/R1满血版上线。
截至目前,虽已有超15家芯片厂商适配了DeepSeek模型,但据不完全统计,明确宣布适配DeepSeek R1及V3原版模型的不到一半。
图源:不完全统计梳理
多数企业宣称能在“几小时内”“一天内”可以快速完成适配的,但大部分仅是DeepSeek R1的系列蒸馏模型,而原版或称“满血版”的模型适配仍在进行中。
云天励飞(688343.SH)副总裁、芯片业务线总经理李爱军告诉,在适配上线过程中,DeepSeek的模型可分为两类,其一是基于DeepSeek R1蒸馏了一些参数小的模型,包含1.5B、7B、14B以及70B等大模型,这些蒸馏模型的原始模型是通义千问和LLAMA,那么原本能够支持通义千问和LLAMA模型的平台,基本上就能适配这些DeepSeek的蒸馏模型,这一块的工作量相对较小,企业一般花费一周左右就能适配完成。
另一类则是DeepSeek V3和DeepSeek R1的原版模型,这是DeepSeek自研的原生态MOE大模型,其参数量达到了671B,里面囊括了MLA等新的算子,考验着芯片适应超大规模MOE架构、支持新型算子、稀疏MoE模型的执行效率等的能力。
而其中最大的难点在于模型本身的参数量大。“目前,国产HBM(高带宽存储器)芯片的容量不大,在用于推理的人工智能计算场景中,16GB、32GB乃至64GB的HBM容量已经被认为是较大的配置了。但即使是使用64GB的芯片来运行671B参数的大模型,要把参数加载到芯片中,也至少需要11张×64GB的芯片才能勉强放下这个模型。这也意味着单卡无法解决问题,牵涉到卡与卡之间的互联能力和效率。”李爱军谈到,因此,适配的时长取决于各家的基础。基础好、投入大的,一到两周就能完成适配,技术次于此的,可能在两三周左右能够适配完,或者更长时间,有的甚至无法适配。
昆仑芯科技也表示,理论上,各类大模型的常规模型、常规组网能直接跑通,然而难免会出现特殊算子、特殊规模,需要投入人力进行针对性调试。跑通只是基础,后期涉及后端硬件不同、算子实现不同、对应软件版本不同等因素,精度对齐、性能对齐也都需要人力介入进行针对性适配。
不过,也有行业人士向透露,由于DeepSeek本身开源,适配过程中并不需要授权,尽管目前众多平台都在适配该模型,但这种适配可能并非真正意义上的“接入”。“真正意义上的接入是DeepSeek利用某个智算中心提供云服务,但是目前真正和DeepSeek达成这种合作的厂商非常少,可能只有一两家。”
部署和落地
适配之外,更关键的是部署。
近期,并行科技(839493.BJ)、壁仞科技、摩尔线程和昆仑芯科技等多家企业均向透露,他们正在忙于为客户做DeepSeek模型的部署。
“部署是大模型转化为生产力的必要步骤。”中存算半导体董事长陈巍解释,部署相当于在用户的生产环境里进行模型的安装设置和做与客户成产环境的连接。
在某国产算力运营商的产品交流群中观察到,不少用户在询问如何导入和设置API、如何集成相关服务,还有人咨询DeepSeek模型接入后为何运行速度较慢等。
“行业确实正处于模型应用落地的关键阶段。”2月12日,摩尔线程相关技术负责人向表示。
了解到,在近期行业密集适配DeepSeek系列模型后,不少厂商开始寻求落地应用,智算一体机这种硬件部署形式于是浮出了水面。
摩尔线程表示,公司正与雪浪云联合打造了“软硬件紧耦合”大模型训推一体机——雪浪MindCenter X100,就已成功部署DeepSeek-R1-Distill-Qwen(适配1.5B、7B、14B、32B)推理服务。
“一体机生意会是今年的大机会,离线需求太多了。”有业内人士感慨道。
“前段时间大家都在适配,适配了之后呢?我们希望能够在一些领域能够实现真正的应用。”壁仞科技相关负责人告诉,壁仞科技联合中兴通讯、浙江大学上海高等研究院和一蓦科技推出了智海AI教育一体机。该产品实现了国产算力与DeepSeek的适配及知识课程、实训课题、智能体等教学工具的设计开发,并形成了包含AI通识课、专业课、实践实训在内的一体化解决方案。
2月11日,中国电信(601728.SH)和中国移动(600941.SH)两大电信运营商也分别推出了天翼云和移动云智算一体机-DeepSeek版。
据移动云官方消息,智算一体机简单来说就是基于移动云边缘智能小站算力底座打造的小型专属云,专门为企业量身定制。它复用了边缘智能小站的产品技术,还有统一运维、快速交付这些服务,解决了企业在 AI 应用落地时对数据安全的担忧,还能提高AI应用开发的效率。
图源:移动云官方公众号
此外,京东云、联想(0992.HK)、科华数据(002335.SZ)、浪潮云、中国长城(000066.SZ)、天融信(002212.SZ)等企业均官宣发布了DeepSeek智算一体机。
行业或迎洗牌?
DeepSeek火了,顺带捧红了国产算力,但也带出了一系列疑问。DeepSeek时代需要怎样的算力?DeepSeek又将如何改变如今算力市场的战局?
此前,DeepSeek似乎已经出现算力吃紧的现象。2月6日,DeepSeek暂停API(接口)充值服务,DeepSeek官方解释为服务器资源紧张。2月9日,DeepSeek调整收费标准,每百万输入tokens的价格为0.5元(针对缓存命中情况)和2元(针对缓存未命中情况),而输出tokens的价格则定为每百万8元。在优惠期内,DeepSeek-V3对于输入tokens的收费是每百万0.1元(缓存命中)和1元(缓存未命中),输出tokens则是每百万2元。
图源:图虫创意
李爱军认为,在DeepSeek模型的性能足够强,而其未来很可能继续延续开源的策略的情况下,企业能够直接使用它进行应用落地,而非自己再重新训练出一个基础模型。由此,未来推理侧的算力需求将大规模爆发。
他表示,在模型训练环节追求的是极致的性能,哪怕GPU价格非常高,企业也不吝购买。一旦到了推理环节,行业的关注点就会变成性价比,因为推理时时刻刻都要使用,GPU芯片在推理时代性价比不突出,专门针对推理场景设计的ASIC芯片会大有机会。
“训练芯片和推理芯片在思路逻辑上有较大区别,训练芯片多选择兼容CUDA架构,走的是GPU架构,推理芯片如云天励飞等,多走的是神经网络处理架构。从训练芯片向推理芯片的转换,市场对芯片的要求、商业模式会有较大的变化。”李爱军推测,未来芯片行业可能将面临新一轮洗牌。
摩尔线程相关技术负责人则认为,从训练侧来看,Scaling Law规模定律仍然有效,模型迭代会加快,对于国产优质训练算力的需求不会降低。长期看,模型参数规模扩大(如GPT-5)和训练方法革新(如MoE)仍会推动训练算力需求增长;从推理侧来看,随着生成式AI应用落地,落地应用(如AIGC、智能体、垂直行业模型)将带来海量碎片化推理需求,市场规模有可能超过训练。
该技术负责人表示,短期内,国产GPU厂商应保持训练芯片的持续迭代,比如最好支持FP8,确保技术不脱节,同时通过推理芯片快速切入商业化场景。从长期上,瞄准“训推一体”架构,通过统一计算平台降低客户切换成本,最终在自主生态中实现训练与推理的协同增长。
至于DeepSeek的冲击波能否影响到大洋彼岸的英伟达,陈巍表示,没有看到deepseek对英伟达的直接利空,但如果DeepSeek引发更大范围更严格的禁运,那么可能使得英伟达GPU销量减少。
“事实上,每一代模型的进步,都意味着同等算力下模型精度更改。在以往模型的进步并未引起英伟达市值下跌。对于deepseek这类大模型,由于参数量巨大,需要更低的存力成本。降本增效是摆在各厂家面前的关键。”陈巍说道。