据香港IDC了解,在人工智能(AI)领域,OpenAI等公司正面临着开发大型语言模型的重大挑战。为了克服这些障碍,AI专家们开始探索更具创新性的训练技术,这些技术模拟人类的思维过程,旨在提高AI模型的效率和效果。
Reuters
据多位AI科学家、研究人员和投资者透露,OpenAI最近推出的o1模型背后的新技术可能会重塑AI竞争格局,并对AI公司在能源和芯片等资源上的需求产生深远影响。自从两年前ChatGPT发布以来,受益于AI热潮的科技公司一直坚持“通过增加数据和计算能力来扩展现有模型”的理念。然而,越来越多的知名AI科学家开始质疑这种“更大更好”的思维方式。
AI实验室Safe Superintelligence(SSI)和OpenAI的联合创始人伊利亚·苏茨基弗(Ilya Sutskever)指出,扩大预训练阶段的结果已经趋于平稳。预训练阶段使用大量未标记的数据来理解语言模式,这一过程的提升似乎已遇到瓶颈。
为了提升现有AI模型的性能,研究人员正在研究“测试时计算”技术。这种方法在模型实际使用时进行优化,而不是简单地选择单一答案。通过实时生成和评估多个可能性,模型能够选择最佳路径,从而在解决数学、编码或复杂操作等需要人类思维的任务时,分配更多的处理能力。
OpenAI的研究员诺亚·布朗(Noam Brown)在最近的TED AI大会上表示,让一个AI模型在扑克游戏中思考20秒,其性能提升相当于将模型规模扩大100,000倍并训练100,000倍的时间。这一方法也被应用在OpenAI最近发布的o1模型中。
这一转变可能会改变AI硬件市场,目前该市场主要由对Nvidia AI芯片的强烈需求驱动。知名风险投资公司如红杉资本和安德森·霍洛维茨正在关注这一趋势,并评估其对投资的潜在影响。这些投资者已为OpenAI和其他AI实验室的开发投入了数十亿美元。
红杉资本的合伙人索尼娅·黄(Sonya Huang)表示:“这一转变将使我们从庞大的预训练集群转向推理云,推理云是分布式的云服务器。”随着推理能力的需求增加,Nvidia的最新AI芯片正在推动公司市值攀升,甚至超越了苹果。
Nvidia首席执行官黄仁勋(Jensen Huang)在印度的一次会议上提到,推理能力的需求持续增长,这些因素导致对其新芯片Blackwell的需求异常高。
在当前全球数字化转型的背景下,AI技术的演变显得尤为重要。随着对智能AI的需求不断上升,如何在不增加庞大计算资源的情况下提升模型的智能水平,成为了行业内亟待解决的问题。
未来,随着AGI(通用人工智能)技术的成熟,我们有可能看到AI在设计更高效的芯片和开发大规模聚变反应堆等领域发挥更大的作用。这一切都表明,AI的未来不仅仅是规模的扩展,更是智能决策的提升。
总而言之,OpenAI和其他科技公司正在积极探索新的AI训练方法,以突破现有技术的限制。这一转变不仅影响着AI模型的开发,也将对整个科技行业的未来产生深远影响。随着技术的不断进步,我们期待看到AI在各个领域的更多应用和创新。