当前位置: 首页 » 资讯 » 新科技 » 正文

阿里Qwen发布320亿参数QwQ-32B大模型

IP属地 北京 编辑:江紫萱 中关村在线 时间:2025-03-06 12:02:22

2025-03-06 09:42:19 作者:

3月6日,阿里Qwen团队正式对外发布了其最新的研究成果——QwQ-32B大语言模型。这款模型拥有320亿参数,在性能上能够与参数量高达6710亿的DeepSeek-R1(其中370亿参数被激活)相媲美。

尽管QwQ-32B的参数量仅为DeepSeek-R1的大约1/21,但通过强化学习技术,该模型成功实现了性能上的显著提升。此外,阿里在这款推理模型中还集成了与Agent相关的能力,使其不仅能够使用工具,还能进行批判性思考,并根据环境反馈动态调整推理过程。

QwQ-32B在多项基准测试中接受了全面评估,涉及数学推理、编程能力和通用能力等多个领域。在数学能力测试AIME24评测集中,以及用于评估代码能力的LiveCodeBench测试中,QwQ-32B的表现与DeepSeek-R1相当,并且大幅优于o1-mini和相同规模的R1蒸馏模型。

同时,在由多位知名研究者主导的多个权威评测榜单中,QwQ-32B也取得了优异成绩。例如,在被称为“最难LLMs评测榜”的LiveBench、用于评估指令遵循能力的IFeval评测集,以及针对函数或工具调用准确性测试的BFCL中,QwQ-32B的得分均超过了DeepSeek-R1。

目前,QwQ-32B已经在Hugging Face和ModelScope平台开源,用户还可以通过Qwen Chat直接体验这一先进模型。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新