3月20日消息,昨日晚间,大模型训练、开发平台Predibase发布了首个端到端强化微调平台(RFT)。
Predibase表示,DeepSeek-R1的开源在全球AI领域产生了巨大影响,让很多人意识到强化学习微调对训练大模型的重要性。受此启发,他们开发了这个端到端无服务器强化微调平台。
与传统的监督式微调相比,RFT不依赖大量的标注数据,而是通过奖励和自定义函数来完成持续地强化学习,同时支持无服务器和端到端训练方法,从数据管理、训练模型到应用部署可以在同一个平台完成。用户只需要一个浏览器,设定微调目标、上传数据、就能完成以前非常复杂的大模型微调流程。
为了展示RFT的强大,Predibase根据阿里开源的Qwen2.5-Coder-32B-instruct,微调了一个专门用于将PyTorch代码翻译为Triton的模型Predibase-T2T-32B-RFT。
与传统的监督式微调方法不同,Predibase-T2T-32B-RFT利用RFT以交互方式调整模型行为,以最少的标记数据优化下游任务质量。这使其成为专有LLM的高性价比、高性能替代方案。
通过RFT,Predibase在训练过程结合了冷启动监督式微调、强化学习和课程学习,并且只使用了十几个标记数据点。
在Kernelbench数据集上进行的基准测试显示,Qwen2.5-Coder-32B-instruct经过强化后,其正确率比DeepSeek-R1和OpenAI的o1高出3倍,比Claude 3.7 Sonnet高出 4 倍以上,而模型的体量却比这三个小很多。
IT之家附开源地址:
https://huggingface.co/predibase/Predibase-T2T-32B-RFT
在线体验地址:
https://predibase.com/reinforcement-fine-tuning-playground