当前位置: 首页 » 资讯 » 新科技 » 正文

字节宣布:成本最高可降低83%!

IP属地 北京 编辑:顾雨柔 21世纪经济报道 时间:2025-02-13 00:30:14

作 者丨孙永乐

编 辑丨陈思颖

消息方面,据“豆包大模型团队”微信公众号, 字节跳动豆包大模型Foundation团队近期提出UltraMem,该架构有效解决了MoE推理时高额的访存问题,推理速度较MoE架构提升2—6倍,推理成本最高可降低83%。

据了解,随着模型规模的扩大,推理成本和访存效率已成为限制大模型规模应用的关键瓶颈。在Transformer架构下,模型的性能与其参数数量和计算复杂度呈对数关系。随着LLM规模不断增大,推理成本会急剧增加,速度变慢。

为此,字节跳动豆包大模型Foundation团队提出UltraMem,一种同样将计算和参数解耦的稀疏模型架构,在保证模型效果的前提下解决了推理的访存问题。

目前,这项创新成果已被机器学习和AI领域的顶级会议ICLR 2025接收,为解决大模型推理效率和扩展能力问题提供了全新思路。

公开资料显示,字节跳动豆包大模型团队成立于2023年,致力于开发先进的AI大模型技术,成为世界一流研究团队,为科技和社会发展作出贡献。团队研究方向涵盖深度学习、强化学习、LLM、语音、视觉、AInfra等,在中国、新加坡、美国等地设有实验室和岗位。

今日,一则消息再度引爆抖音豆包概念,南财快讯带你一图速览↓↓↓

(声明:文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。)

SFC

本期编辑 黎雨桐

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新