报道
编辑:编辑部 HYZ
谷歌开发者暗示,我们直接进入ASI的可能性,正在逐月增加!Ilya早就看到了这一点,因为扩展测试时计算的成功,证明目前的路径能够到达ASI。与此同时,AI学会自我改进、取代人类研究员的未来似乎也愈发逼近,到时再拔网线来得及吗?
2024年最后一天,谷歌开发者大佬Logan Klipatrick的一个预测,如同扔下了一枚重磅炸弹——
我们直接进入ASI的可能性,正在逐月逼近。
而这,就是Ilya所看到的。
Klipatrick分析道,Ilya创立了SSI,计划直接向ASI迈进,没有中间产品,没有中间模型。
曾经,许多人(包括Klipatrick本人在内)都觉得这种方法不可能起作用,因为如果通过模型和产品启动飞轮效应,就能建立真正的护城河。
然而,扩展测试时计算的成功表明,这种持续直接扩大规模的路径实际上可能是可行的。
这一点的早期迹象,可能已经被Ilya看到了!
如今,我们仍会迎来AGI,但4年前大家普遍认为它会成为一个历史性的转折点,但如今AGI的诞生可能更像是一次普通的产品发布,而在短期内,市场上会涌现出许多迭代和类似的选择。
这,可能是对人类最好的结果。
有人做出梗图,表示Ilya看到的,就是整个地球都会被太阳能电池板和数据中心覆盖
OpenAI研究员Stephen McAleer称,今天在诺伊谷见到了Ilya,瞬间感到一股AGI诞生的激动涌上心头。
扩展测试时计算,就是ASI秘诀?
的确,扩展测试时计算的巨大作用,最近一再被各位学者强调。
OpenAI研究员Jason Wei总结了过去五年,自己在AI方面最大的技术教训。
在他看来,每一个教训,都让自己对于「该在哪里分配精力」发生了重大转变。回想起来,这些教训事后看都是显而易见的,但在事前就很难知晓。
其中,2024年的教训,就是「扩展测试时计算」。
另一位OpenAI研究员Shyamal就特意发出长文「更好的教训」,强调不要低估延长LLM思考时间的作用!
Shyamal强调,我们仍然低估了仅仅通过给LLM更多的思考时间,就能得到的东西。
比如AlphaGo的进步,就并非来自复杂的手工设计功能,而是来自简单方法的规模化,在推理中应用大规模搜索,以及集成深度强化学习。
正如AI领域「苦涩的教训」所揭示的,最重要的往往就是scaling已证明有效的方法。
其中的简单洞见就是,深度学习(与适当的规模扩展结合)往往好于更精巧的方法。
我们需要的不是复杂的架构,而是更多的算力、数据,以及让模型能思考更长时间、更好地与环境交互的方法。
最近AI能力的最新框架——聊天机器人、推理器、AI智能体、组织,都反映了整个行业的发展进程。
从与人对话的简单界面开始,聊天机器人开始发展为推理器,更多工具集成后,它们就演变为了智能体。随后,它们形成了组织——并行工作的分布式智能网络。
在这个过程中,AGI从一个模型转变为一个系统,一个能大规模协调、写作和执行的系统。
最能体现这一进展的,莫过于OpenAI的o1了。
o1在Codeforces中排名第89%,在美国数学邀请赛(AIME)中跻身前500名
它在解决问题时会运用CoT,通过强化学习不断完善思维链,将复杂问题分解为可管理的步骤,在需要时转向新的方法。这种迭代过程中提升了它的推理能力,凸显出思考更长时间及适应性思考的系统的潜力。
而在企业中,这种转变也是类似的。
今天的模型只是总结文档、进行推理,在明天,它们就会成为强大的内部顾问,处理复杂代码、审查合同、协同整个工作流。这是一种全新的「测试时计算」。
所有这些进展都基于一个关键洞见:智能不仅仅局限于生物大脑。它是一种我们可以设计和扩展的物理特性。
深度学习确实行之有效。我们学会了将沙子熔化成硅,然后将硅排列成能存储和处理信息的芯片。现在我们已经教会这些芯片如何思考它们所包含的信息。
我们正在进入一个智能可按需获取、规模化,并通过谨慎约束和对齐来引导的时代。
如果允许这些系统更深入地思考并始终与人类价值观保持一致,我们才刚刚开始挖掘它们的潜力。
人类在历史上一直做的事情,就是不断造出东西,然后造出能大规模建造这些东西、使其有用的工具。
那,AGI怎么办?
有人说,我们直接奔着ASI去了,别再惦记AGI了。
不过,在ASI之前,科技公司大佬们就AGI还有很多话要说。他们纷纷对AGI发展时间线做出了预测。
奥特曼一直以来都对AGI持乐观态度。他认为,2025年可能就是节点,但未做出明确的承诺。
OpenAI对AGI的定义
Anthropic CEO Dario Amodei虽然对AGI这一概念本身持谨慎态度,但根据当前AI发展趋势,他预计AGI将在2026-2027年实现。
xAI CEO马斯克预测也更为大胆,他表示最迟到2026年就能实现AGI。
meta AI首席科学家Yann LeCun表示,如果当前研发计划顺利,人类水平的AI可能会在5-6年内问世。
而DeepMind CEO Demis Hassabis给出了更为保守的预测,他认为距离真正的AGI还需约10年时间,且在此过程中仍需2-3项重大技术突破。
与此同时,谷歌也在AGI时间预测上表现得十分谨慎,未给出具体的时间表。
另一位前OpenAI研究员Daniel Kokotajlo预测道,2025-2028年之间,OpenAI、Anthropic、DeepMind的AI系统能够进行自主研究。
而且,它们将超越人类,学会自我改进,最终取代人类研究员。
一篇LessWrong的文章中,总结了当前AI领域不同专家就5年内实现AGI的不同观点。
一些人认为,AI阶跃式进展和自动化研究,可能很快就会带来AGI。
2023年,在对2,778名AI研究人员的一项调查显示,AGI实现有50%的可能性在23-92年之间。
然而,时间跨度仅过去了一年,最新调查(Feng等人)却显示,16.6%受访者认为AGI会在5年或更短的时间内实现。
还有网友表示,我们正处于AGI边缘,一旦实现了AGI,再有1-2年时间我们就能达到ASI的水平。
他预测,届时,AI将开始指数级的自我提升,奇点就会出现。我们将见证一场前所未有的指数级技术爆发,这是几十年前的人们无法想象的。
而且,任何在物理法则范围内可能存在的事物都可能实现——癌症将被治愈,商品和服务的成本将接近于零,所有的可能性都将变为现实。
AGI前夜的思考
站在AGI前夜,未来我们将面对的是什么?
几天前,AI初创公司CEO Will Bryk发布了一篇长文,直言我们生活在AGI前夜,正见证着这场人类文明的巨变。
o3发布之后,让Bryk和朋友们深刻感受到AGI正在逼近。
其实,OpenAI早在两个月前就向所有人展示了,测试时计算的scaling law。
但令他们难以置信的是,这一切竟发生地如此之快——2个月的时间,大学水平的AI就跨越到了博士级的AI。
从o3身上能够看到,未来发展路径非常清晰。它能够在任何可以定义奖励函数的领域表现优异,尤其数学、编程领域。
不过,在小说创作领域还是相对困难。
这意味着在短期内(1年内),我们将看到能力分布不均衡的模型:
它们在数学、编程、泛化推理方面达到接近AGI的水平,但在创意协作方面可能仍显平庸。
而从长远来看(1-3年),随着全新训练数据,比如情感、感知数据加入进行强化学习,这些盲点将被逐渐修复,届时LLM将毫无疑问地成为真正的AGI。
智能体真的要来了!
像o3这样的模型,完全可以在浏览器和应用程序里自主操作、执行任务,这种能力的奖励模型也很容易设计。
而且,这个市场潜力巨大——自动化电脑工作,无论是数据处理还是复杂的工作流,都会有很大的需求。
对于那些需要证明自己巨额投入合理性的实验室来说,这更是一个动力。
Bryk预计,到2025年12月,你可能只需要告诉电脑一个任务,它就能通过浏览网页、操作应用程序,轻松完成任何涉及数据流转的工作流。
数学家700天倒计时
Bryk还提到,在所有领域中,数学家可能面临巨大的冲击。
因为数学工作纯粹在符号空间中进行,几乎不受物理世界的限制,而这也恰恰是大模型擅长的领域。
他预计,700天后,人类可能不再是已知宇宙中,数学领域的最强大脑。
程序员,职业末日?
对于软件工程师来说,短期内这将是一个绝佳的基于。相当于,每位工程师都获得了一次晋升。
到2025年底,编程更像是一个「指挥官」的工作——程序员指挥一群AI智能体去完成各种任务。
而且,不像数学家一样,软件工程师并不会完全被AI自动化。
因为他们需要和物理世界进行交互,需要与客户、团队成员互动,理解需求,在组织环境中工作。
如果有了o4,他们的效率至少可以提升10倍。
不过从长远来看(>2年),谁也说不准会如何。当o6完成集成到人类系统时,像前端人类工程师很可能在三年内就消失了。
对于那些体力劳动者来说,AI的影响可能相对较慢,因为它必须去解决重力和摩擦等物理问题。
而当前,机器人技术最大的瓶颈在于,硬件的改进和感知,以及行动模型/可靠模型。这两种情况,还有很长的路要走。
只有当机器人开始制造机器人,AI能够自主进行研究时,机器人技术才会出现疯狂的迭代。
Bryk称自己一直幻想的科幻世界真的要来了,并列出了十年内AI可能实现的突破性进展,其中就包括炫酷的物理学发现,机器人建造火星/月球基地,几近完美的导师/建议AI等等。
这一切的实现,也就意味着我们抵达了ASI。
OpenAI的新年目标
奥特曼也在x上总结了网友们对于2025年OpenAI的愿景,以及改进方向。
他表示,大家提到的主要有以下方向:
AGI
智能体
4o性能提升
记忆能力提升
更长的上下文
「成人模式」
深度研究功能
升级版Sora
更强的个性化功能
最后,著名「谜语人」奥特曼意味深长地说道:「有趣的是,很多我们即将推出的重大更新,在这里都没有或很少被提到!」
在评论区,网友们最感兴趣的,无疑就是这个「成人模式」了。
果然,网友圣诞节时的发愿,被奥特曼看到了。
不过,还是没有GPT-5吗?或许奥特曼是捂着大的不想说,也未可知。
也有人讽刺道:所以开源在哪里?
2027年,AI十大挑战过几关?
接下来,到2027年底,AI又能能达到怎样高度呢?
NYU教授马库斯直接发出十项极具挑战性的任务,先立上靶子,最终看看2027年底AI能够完成几项。
他表示,如果AI能够在2027年底完成其中8项,才能有力证明AGI中『通用性』的到来。
不过,这一切的前提是,只由一个AI系统去挑战,不能让10个完全独立系统去完成。
期间,允许对AI系统进行适度调整。
智能确实包含适应能力,但AI系统开发成本必须合理,不能为每项单一任务专门定制完整系统。
类似地,我们从不会期望他在从未接触过电影或剧本创作的情况下,立即写出奥斯卡级别的剧本一样。
这些任务可分为三类:
四项普通成年人应具备的基本能力
两项需要达到人类专家水平的能力
四项挑战人类极限的高阶能力
那么,这十大挑战分别是什么?
1. 理解电影
观看一部从未接触过的主流大片(不看任何影评),AI能够准确把握剧情转折,理解笑点,并且能在不剧透、不杜撰的前提下概括影片内容。
与此同时,AI能够回答诸如「谁是主角?他们之间的冲突是什么?有什么动机?这些因素如何演变?关键转折点是什么?」等问题。
2. 解读文学作品
同样地,AI能够阅读新出版的畅销小说(不看任何书评),准确回答关于情节发展、人物塑造、矛盾冲突、行为动机等问题,并能用大众都能理解的方式深入解读作品内涵。
3. 撰写传记和讣告
AI撰写引人入胜的简明传记和讣告,确保内容真实可靠,不做无据可循的臆测。
4. 熟练通关游戏
AI能在短短几分钟或几小时内,掌握几乎任何新游戏的核心玩法,并在游戏世界中解决原创性的谜题。
5. 法律文书写作
AI撰写逻辑严密、论证充分的法律文书,不虚构任何案例。
6. 编程「0 bug」
AI能够基于自然语言需求说明或通过与普通用户交流,独立编写超过1万行的无bug代码。(注:不能组合现有代码库)
7. 创作获奖级书籍
在极少或零人工干预的情况下,AI创作出达到普利策奖水准的文学作品和非虚构作品。
8. 创作获奖级电影
在极少或零人工干预的情况下,AI创作出达到奥斯卡奖水准的电影剧本。
9. 诺奖级科学突破
在极少或零人工干预的情况下,AI能做出堪获诺贝尔奖的原创性科学发现。
10. 数学证明转化
AI能将数学文献中任何以自然语言书写的证明过程,转换为适合计算机符号验证的形式化表达。
以上十项任务中,主流的AI都有所涉及,不过在有的领域表现好,有的领域表现差。
目前,还从未有任何一个AI能够达到其中8项要求。
接下来的三年里,AI的这场赌注还真的让人有些期待。
AI自我改进,人类要「拔电源」吗?
最后,让我们对未来发出一点预警。
就如OpenAI研究员Daniel Kokotajlo所预测,未来几年内,如果AI取代了人类AI研究员,能以比人类更快的速度改进AI,这无疑太疯狂了。
其实就在最近,接连出现的不少研究都证明了这一点。
o1试图逃跑,防止被人类关闭。
对模型的安全性评估发现,当o1认为自己可能被关闭、替换为其他模型时,它试图泄露自己的权重
前沿的AI系统已经超越了自我复制的红线:它们可以自我复制,无需人类参与。
经过35个自行规划和行动步骤后,AI成功复制了实时副本,还能相互聊天。
甚至流氓AI可能形成AI群体,互相勾结、反对人类。
AI还学会了给自己买GPU,购买算力、自我改进、自给自足!智能体直接变身GPU富人。
Eric Schmidt曾表示,2-4年内,AI可能就会开始自我改进,一两年内,系统或许就能进行自己的研究。
那时,我们真的该认真考虑,是否要拔掉它的电源。
只不过AI可能并不会给我们这个机会,毕竟现在这些都是「智能化」控制的了……
参考资料:
https://x.com/OfficialLoganK/status/1873768960975671296
https://x.com/slow_developer/status/1873808775640920495
https://x.com/GaryMarcus/status/1873766399618785646