当前位置: 首页 » 资讯 » 新科技 » 正文

李彦宏谈DeepSeek:我们到处都能看到创新,因此必须适应这种快速变化

IP属地 北京 编辑:朱天宇 钛媒体APP 时间:2025-02-11 20:33:49

百度创始人、CEO李彦宏(图片视频截图)

百度创始人、董事长、CEO李彦宏(Robin Li)终于被问到中国DeepSeek带来的影响。

北京时间2月11日下午,钛媒体AGI获悉,在迪拜举行的2025世界政府峰会首日活动上,李彦宏与阿联酋 AI 部长奥马尔·苏丹·阿尔·奥拉马(Omar Sultan Al Olama)进行圆桌对谈。

奥拉马首先直接问李彦宏:“DeepSeek这个热潮,在你看来,这是预料之中的吗,比如你真的认为这会发生吗?它将在过去以这种方式发生。或者你是不是也被DeepSeek所困?”

李彦宏对此表示,今天谈论大模型时,AI大模型成本每年减少90%以上,比计算机革命“摩尔定律”快得多,在美国的环境里,他们总是建立或开发最强大的大语言模型,但在中国,由于计算限制,我们必须创新以降低成本。

“基本上,我认为创新是不能被计划的。你不知道创新何时何地到来,你所能做的,是营造一个有利于创新的环境。”在李彦宏看来,百度在ChatGPT发布三个月后推出文心一言(现在名为文小言),这是中国上市公司中第一个推出类ChatGPT应用的。“这是一个非常激动人心的时刻,我们到处都能看到创新,我们必须适应这种快速变化的创新。”

据悉,截至2024年11月,百度文心大模型的日均调用量已经超过15亿,相较一年前首次披露的5000万次,增长约30倍。李彦宏表示“增速超出预期”,说明AI是真需求。

他感慨,这代表着过去两年中国大模型应用的爆发。

2023年1月,钛媒体App报导称,李彦宏在百度内部直言,短期公司“亏是因为高速成长”是行的,但是长期来讲是不行的,很多企业级公司因为没有现金周转能力,没有现金流,最后资金断裂公司会死掉。李彦宏还痛斥内部员工没有商业意识,致使新业务“收入质量”不高。

2023年11月,李彦宏在深圳一场活动中表示,中国的大模型太多。国内有200多个大模型其实都没有什么使用量,他暗指文心大模型一家的调用量高于200多个大模型。李彦宏还称,要开发好用、可用的大模型,存在很高的技术和成本门槛,“重复造轮子”其实是对社会资源的极大浪费。

2023年12月,李彦宏在北京活动上强调,百模大战是对社会资源的极大浪费,更多资源应该放在超级应用。他还直言,包括百度在内的大公司内部反应太慢、生产力落后,因此内部反复强调要利用文心一言“重构”应用,而不是把当作“工具”。“首先,其实大公司反应都是很慢的,甚至我有时候讲,大公司代表落后生产力,你千万不要看大公司在做什么。

2024年4月,李彦宏再度表示,同等效果下,成本明显更低,所以开源 AI 模型会越来越落后,引发市场关注。

2024年7月,李彦宏直言开源模型就是“智商税”,“当你理性地去想,大模型能够带来什么价值,以什么样的成本带来价值的时候,就会发现,你永远应该选择闭源模型。今天无论是ChatGPT、还是文心一言等闭源模型,一定比开源模型更强大,推理成本更低。”

2024年9月,李彦宏表示不同意“大模型能力已经没有壁垒”观点。而且他认为,算力是决定大模型成败的一个关键因素,但开源模型效率太差,无法适合未来发展。此外,李彦宏还预测,未来,中国和OpenAI GPT的 AI 大模型之间的差距可能会越来越大。

在AI应用的发展趋势上,李彦宏曾表示,智能体是AI应用的最主流形态,即将迎来爆发点。

2025年2月,中国开源 AI 模型公司DeepSeek热潮席卷全球,百度多个项目接入了DeepSeek。

其中,百度智能云千帆大模型平台正式上线了DeepSeek-R1与DeepSeek-V3模型,模型上线首日,已有超1.5万家客户通过千帆平台进行模型调用;百度百舸基于昆仑芯P800,发布部署 “满血版DeepSeek R1+联网搜索” 服务;百度智能云客悦、曦灵、甄知、一见四款大模型应用产品完成DeepSeek适配上线;百度文小言iOS版App接入DeepSeek-R1模型以优化拍照解题功能。

李彦宏还在世界政府峰会上表示,Robotaxi可以大大降低交通事故死亡率。从萝卜快跑的实际记录来看,出险率仅为人类驾驶员的1/14。“技术进步非常快,自动驾驶比人类司机安全十倍。”

不过李彦宏也表示,“这(自动驾驶)仍然是一个新产业、一个新领域,人们对事故的容忍度很低。如果发生一些严重的事故,可能会拖累你(企业)的收入,因此,您可能需要将操作停止一段时间,找出发生的情况,并进行所有调整以重新启动操作。我们一直非常小心,所以到今天为止,尽管我们已经在相对较大的规模上运营两、三年,但我们还没有任何事故发生。”

李彦宏在会上重点谈及算力和云基础设施,他认为基础设施层收入远高于应用层,也是需要重点发力投资的领域。

他指出,目前在应用层,AI 大模型公司还没有赚到钱,当我们谈论 AI 原生应用程序时,ARR或每年的经常性收入可能是几千万或最多几亿美元,但在GPU层面谈论的是百亿美元。尽管 AI 大模型技术成本每年降低90%,但性能越来越好,因此,技术仍在不断发展,你不能停止投资,你必须投资,为了确保你(百度)在这场技术革命中走在最前面。

“我认为在计算机和云基础架构,以及对芯片的投资仍然是非常必要的,以便提出下一个基础模型,都必须使用更多计算来尝试各种不同领域的 AI 模型。也许在某个时候,你找到了一条捷径,比如说,花了600万美元来训练一个模型,但你已经花了数十亿美元来找出哪种方式是正确的。”李彦宏称。

李彦宏指出,当前指望 AI 应用层出现“超级应用”,并且能够赚到钱产生价值,这是不太可能的。

“我认为,我们确实需要担心应用层的价值创造。如果你花费数千亿美元作为基础设施层,你就不能想出一些比这多10倍的应用程序。这是不可持续的。所以即使我们已经在各种不同的场景中看到了各种用例,可能更像是两个B端。在消费端我们还没有看到像移动互联网阶段所谓的超级应用,类似每日活跃用户数以亿计、人们每天花2小时的应用程序,我们还没有看到这样的机会。但我相信随着时间的推移,有人会发现这一点,你将能够创建一个非常有粘性的应用产品。”李彦宏表示,目前离超级应用还很远,全世界都在寻找这种超级应用产品。

李彦宏反复强调,回顾过去的100年,大多数创新都与降低成本有关。如果你能减少一定数量的成本、一定的百分比,那么意味着你的生产力也提高了这个百分比。

“我认为这就是创新的本质,只是今天的速度比以前快得多。但对于中国的公司来说,我们受到了某种类型的限制。”李彦宏称。

(本文首发于钛媒体App,作者|林志佳)

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新