2025-03-06 09:42:19 作者:
3月6日,阿里Qwen团队正式对外发布了其最新的研究成果——QwQ-32B大语言模型。这款模型拥有320亿参数,在性能上能够与参数量高达6710亿的DeepSeek-R1(其中370亿参数被激活)相媲美。
尽管QwQ-32B的参数量仅为DeepSeek-R1的大约1/21,但通过强化学习技术,该模型成功实现了性能上的显著提升。此外,阿里在这款推理模型中还集成了与Agent相关的能力,使其不仅能够使用工具,还能进行批判性思考,并根据环境反馈动态调整推理过程。
QwQ-32B在多项基准测试中接受了全面评估,涉及数学推理、编程能力和通用能力等多个领域。在数学能力测试AIME24评测集中,以及用于评估代码能力的LiveCodeBench测试中,QwQ-32B的表现与DeepSeek-R1相当,并且大幅优于o1-mini和相同规模的R1蒸馏模型。
同时,在由多位知名研究者主导的多个权威评测榜单中,QwQ-32B也取得了优异成绩。例如,在被称为“最难LLMs评测榜”的LiveBench、用于评估指令遵循能力的IFeval评测集,以及针对函数或工具调用准确性测试的BFCL中,QwQ-32B的得分均超过了DeepSeek-R1。
目前,QwQ-32B已经在Hugging Face和ModelScope平台开源,用户还可以通过Qwen Chat直接体验这一先进模型。