SWEET-RL – Meta 推出的多轮强化学习框架

1个月前发布 48 00

SWEET-RL是Meta推出的多轮强化学习框架,专门用在训练大型语言模型(LLM)代理进行协作推理任务。SWEET-R基于训练时的额外信息(如参考解决方案)优化“批评者”模型,模型为每个步骤提供奖励,帮助“行动者”模型更好地分配信用、优化策略。SWEET-RL在ColBench基准测试中表现出色,相比其他先进算法,在后端编程和前端设计任...

收录时间:
2025-12-16
SWEET-RL – Meta 推出的多轮强化学习框架SWEET-RL – Meta 推出的多轮强化学习框架

SWEET-RL是Meta推出的多轮强化学习框架,专门用在训练大型语言模型(LLM)代理进行协作推理任务。SWEET-R基于训练时的额外信息(如参考解决方案)优化“批评者”模型,模型为每个步骤提供奖励,帮助“行动者”模型更好地分配信用、优化策略。SWEET-RL在ColBench基准测试中表现出色,相比其他先进算法,在后端编程和前端设计任务上的成功率和胜率提升6%,使Llama-3.1-8B模型的性能与 GPT-4o 等顶尖模型相媲美甚至超越。

官网:https://github.com/facebookresearch/sweet_rl


立即打开官网

数据统计

相关导航