当前位置: 首页 » 资讯 » 新科技 » 正文

百度敢于开源的底气:全栈的技术+开放的态度

IP属地 北京 编辑:沈如风 陆玖商业评论 时间:2025-02-19 19:00:17
技术基建和应用生态,才是支撑百度开源战略的真正底牌。

2月18日,百度发布2024年Q4及全年业绩。财报数据显示,百度全年总营收1331亿元,归属百度核心净利润达234亿元,同比增长21%。

值得一提的是,这部分利润增幅,很大程度来自云业务的强劲增长。数据显示,四季度收入同比增长达26%。云业务的增长,则很大程度来自与AI业务的同频共振。

截至报告期末,文心大模型日调用量持续上涨,12月的日均调用量已达16.5亿次。在2024一年内,累计增长约33倍。

与模型调用量同步增长的,是相关商业化项目的落地。2024大模型中标项目盘点中,百度在中标项目数、行业覆盖数、央国企中标项目数三个维度里,均获第一;今年1月,百度又拿下中标项目数量和中标金额的双第一。

至此,百度智能云已然拥有中国头部规模的大模型产业落地规模,大量央国企及民营企业的AI创新项目,百度智能云已经深入参与其中。

在此基础上,百度近期抛出了两个重磅炸弹。

其一是2月13日,百度宣布文心一言将于4月1日0时起全面免费,所有PC端和APP端用户均可体验文心系列最新模型。

一天后,即2月14日,百度又宣布将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源。

相比此前在开源闭源问题上的坚定态度,百度的“真香”并非“空穴来风”。大模型已度过了初步发展阶段,当前的创新速度比以往快得多,大模型的推理成本每年能降低90%以上。这无疑为更轻量、更丰富的原生AI应用生态,解决了最直接的成本问题。

01 开源,大模型下半场的无限战争

需要指出的是,开源并非技术妥协,而是推动技术普惠与生态繁荣的战略选择。

从技术普惠的角度来说,开源加速技术传播,降低创新门槛,助力AI从“实验室”走向“规模化应用”。以DeepSeek为例,DeepSeek-V3和R1的定位为开源生态路线。根据公开资料,DeepSeek-V3虽开源了模型权重和推理代码,但训练代码和数据集未完全公开。

而在DeepSeek官宣开源前的两年多时间里,大模型行业主流仍以闭源开发为主。一方面,各大头部AI厂商长期处于竞对状态,在商业化落地尚未成熟的阶段,仍以构建技术壁垒,夯实“基本功”为主,生态层面的构建并非此前的“主线任务”。

但从去年开始,大模型调用和算力成本出现大幅下跌,吸引开发者和构建产品生态的相关条件已然成熟。

在阿联酋迪拜举办的World Governments Summit 2025峰会上,李彦宏表示,“今天,创新速度比以往都快得多。摩尔定律中,每18个月,性能就会翻倍,价格减半;如今,大模型推理成本每年能降低90%以上。”

免费与开源,也成为技术降本后的自然延伸。

以OpenAI为例,2月6日,OpenAI宣布ChatGPTSearch向所有人开放,无需注册,来到OpenAI官网首页就可以直接使用搜索功能。

相较OpenAI开放旧模型的免费使用,早在2024年7月5日,百度文心智能体平台(AgentBuilder)免费开放最新的文心大模型4.0。截至2024年11月,百度文心智能体平台已经吸引了15万家企业、80万名开发者入驻。

百度自研大模型也随之加入了开源、免费的行列。譬如4月1日文心大模型在PC和APP双端的全面免费,后续推出的文心大模型4.5系列,也将在6月30日起正式开源。

李彦宏表示,开源的决策源自于对技术领先地位的坚定信心,开源将进一步促进文心大模型的广泛应用,并在更多场景中扩大其影响力,“但我想强调的是,无论开源闭源,基础模型只有在大规模解决现实问题时,才具备真实价值。”

02 百度的底气和底蕴

毫无疑问,开源战略的背后,是百度全栈AI技术的深厚积累,与长期迭代开发范式下的成本控制优势使然。

一方面,百度在大模型领域的成本足够低,一年时间,推理成本可以降低90%以上。支撑其成本降低的技术底座,则来自百度四层AI技术全栈架构,具备了从芯片到应用的端到端的能力。

全栈技术布局上,百度从芯片-框架-模型-应用四层架构上,分别拥有其独特的优势。在芯片等基建层,百度智能云成功点亮昆仑芯三代万卡集群,成为国内首个正式点亮的自研万卡集群。

截至目前,百舸AI异构计算平台已具备成熟的10万卡集群部署和管理能力,且在万卡集群上实现了99.5%以上的有效训练时长,能够将两种芯片混合训练大模型的效率折损控制在5%以内,达到业界最领先的水平。

值得一提的是,百舸平台通过在集群设计、任务调度、并行策略、显存优化等一系列创新,大幅提升了集群的模型训练效率,整体性能相比业界平均水平提升高达30%。

框架层方面,百度拥有飞桨这样的自研成熟框架。有分析人士认为,百度在模型推理部署方面有比较大的优势,尤其是在飞桨深度学习框架的支持下,其中并行推理、量化推理等都是飞桨在大模型推理上的自研技术。

模型层方面,飞桨和文心的联合优化可以实现推理性能提升,推理成本降低。开源新模型,也将进一步扩大调用量,巩固国内领先地位。

在模型调用服务方面,升级后的千帆平台,不但可以调用包括文心系列大模型在内的近百个国内外大模型,还支持调用语音、视觉等各种传统的小模型。在扩大模型种类的同时,百度智能云持续降低模型调用成本。以最新接入的DeepSeek-R1和V3模型为例,千帆平台上的推理价格最低至DeepSeek官方定价的30%。接入首日,即有超过1.5万家客户通过千帆平台进行模型调用。

此外,文心一言的深度搜索也提供了多项工具调用,包含了高级联网、文档问答、图片理解、iRAG等功能,以此弥补了DeepSeek-R1单模态的缺陷。譬如用户在上传图片进行搜索时,“文心大模型4.0工具版”会自动选择调用图片理解、高级联网、代码解释器等工具,模拟人脑思考的过程,最后会以更直观的图表呈现搜索结果。这让企业级应用的开发变得更为简单。

在应用层,针对企业落地大模型的高频应用场景,千帆平台从检索效果、检索性能、存储扩展、调配灵活性四方面对企业级检索增强生成(RAG)进行了全面升级。此外,针对企业级Agent的开发,千帆平台增加了业务自主编排、人工编排、知识注入、记忆能力以及百度搜索等80多个官方组件支持。

在“世界政府峰会”WGS访谈上,李彦宏表示,我们仍需对芯片、数据中心和云基础设施进行持续投入,来训练更好、更智能的下一代模型。

03 开源的生态,更多的机遇

正如李彦宏所说,“归根结底,最重要的是应用,而不是使用哪种大模型。 不管它是开源还是闭源,更重要的是可以在应用层创造什么样的价值。 ”

须知,模型开源是手段而不是目的,百度智能云的持续增长,叠加文心大模型的开源生态,将与模型形成相互促进的飞轮效应。 当前,飞桨文心开发者数量已达1808万,服务了43万家企业,创建了101万个模型。摩根士丹利策略分析师Gary Yu及其团队发布报告称,随着AI模型训练、推理成本的降低,百度将受到利好。

据最新财报公布,百度文库AI MAU已达9400万,约为上季度两倍;百度搜索中已有22%结果页面包含AI生成内容,涵盖短视频、笔记、智能体、数字人和直播等多种形态;1月,百度APP AI功能已覆盖83%的月活用户,AI驱动的个性化内容推荐增强了用户黏性。

这只是文心大模型改造后,百度移动互联产业生态图景的冰山一角。在大模型技术不断提升,成本不断下降的大趋势下,产业端选择的AI厂商,并不一定是产品能力最强的,而是配套生态最完善,性价比最高,综合体验最好的,这也就是文心大模型和智能云的飞轮效应下,不断产生的生态化反应。

在很长时间的过去,中国公司不擅长建立技术生态,外国厂商长期通过成熟生态攫取超额的附加值,但如今,AI的爆发让行业定义逐渐回到中国人手中,这或许是前所未有的历史机遇。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新