TPO – AI优化框架,动态调整推理模型的输出,更符合人类偏好

1个月前发布 35 00

TPO(Test-Time Preference Optimization)是新型的AI优化框架,在推理阶段对语言模型输出进行动态优化,更符合人类偏好。TPO通过将奖励信号转化为文本反馈,将模型生成的优质响应标记为“选择”输出,低质量响应标记为“拒绝”输出,进而生成“文本损失”并提出“文本梯度”,以此迭代改进模型输出,无需更新模型参数。 ...

收录时间:
2025-12-16
TPO – AI优化框架,动态调整推理模型的输出,更符合人类偏好TPO – AI优化框架,动态调整推理模型的输出,更符合人类偏好

TPO(Test-Time Preference Optimization)是新型的AI优化框架,在推理阶段对语言模型输出进行动态优化,更符合人类偏好。TPO通过将奖励信号转化为文本反馈,将模型生成的优质响应标记为“选择”输出,低质量响应标记为“拒绝”输出,进而生成“文本损失”并提出“文本梯度”,以此迭代改进模型输出,无需更新模型参数。 实验表明,经过少量迭代,即使是未经对齐训练的模型也能在多个基准测试中显著提升性能,在AlpacaEval 2的LC指标上从27.8%提升至37.8%。

官网:https://github.com/yafuly/TPO


立即打开官网

数据统计

相关导航