借一步网
作者:
在
随着 [Llama3] 的开源,Alignment 的重要性日益凸显,而作为 Alignment 中坚力量的 RLHF 家族也愈发繁荣。今天,我们就来一起探索一下 RLHF 领域中那些令人拍案叫绝的魔改思路吧!
在 LLM 领域,RLHF 主要分为两大路线:
On Policy 方法通常需要更大的算力支持,训练时间也更长,但理论上具有更高的效果上限。
On Policy 方法强调让模型在训练过程中“亲力亲为”,根据自身生成结果的好坏来学习改进。
举个例子,想象一下你正在学习玩王者荣耀:
On Policy 方法的优势在于训练数据与模型能力完全匹配,因为所有数据都是由当前模型生成的。
Off Policy 方法则侧重于利用已有数据进行学习,模型不需要亲自生成答案,因此训练速度更快,对算力要求更低。
然而,Off Policy 方法的效果很大程度上取决于训练数据的质量和与模型能力的匹配程度。如果数据质量不高,或者与模型能力相差太远,那么训练效果就会大打折扣。
[ReMax] 提出了一种大胆的想法:丢弃 PPO 中的 Critic 网络,让 Actor 直接与 Reward Model 对齐。
这样做的好处显而易见:
ReMax 的核心在于使用“当前策略”认为最好的行为来作为 baseline,从而在没有 Critic 的情况下降低方差,稳定训练。
[DeepSpeek-v2] 中提出的 [GRPO] 算法则采取了另一种思路:保留 PPO 中 importance sampling 和 clip 等先进机制,但使用暴力采样求均值的方式来代替 Critic 网络。
GRPO 的优势在于:
除了 ReMax 和 GRPO 之外,研究人员还探索了其他优化 PPO 算法的方向,例如:
[DPO] 算法的思路非常直观:对于同一个 prompt,通过降低“坏答案”的采样概率,提升“好答案”的采样概率,从而训练模型。
DPO 的优势在于:
DPO 算法存在一个问题:在某些情况下,”好答案” 和 “坏答案” 的采样概率会同时降低,导致模型效果不佳。
为了解决这个问题,[DPOP] 算法在 DPO loss 的基础上加入了一个正则项,旨在:
与 PPO 类似,[TDPO] 算法也在 DPO 的 loss 函数中引入了 KL 惩罚项,用于限制模型更新幅度,防止过拟合。
与 PPO 不同的是,TDPO 使用的是 forward KL,而不是 backward KL。这样做的好处是:
[ORPO] 算法则更进一步,试图连 reference model 也一并省去。
ORPO 的 loss 函数由两部分组成:
无论是 On Policy 还是 Off Policy,RLHF 家族的“魔改”之路都充满了奇思妙想。相信随着研究的深入,RLHF 技术将会在 Alignment 领域发挥越来越重要的作用。
要发表评论,您必须先登录。
随着 [Llama3] 的开源,Alignment 的重要性日益凸显,而作为 Alignment 中坚力量的 RLHF 家族也愈发繁荣。今天,我们就来一起探索一下 RLHF 领域中那些令人拍案叫绝的魔改思路吧!
On Policy vs. Off Policy:究竟谁更胜一筹?
在 LLM 领域,RLHF 主要分为两大路线:
On Policy 方法通常需要更大的算力支持,训练时间也更长,但理论上具有更高的效果上限。
On Policy:让模型亲自上阵
On Policy 方法强调让模型在训练过程中“亲力亲为”,根据自身生成结果的好坏来学习改进。
举个例子,想象一下你正在学习玩王者荣耀:
On Policy 方法的优势在于训练数据与模型能力完全匹配,因为所有数据都是由当前模型生成的。
Off Policy:站在巨人的肩膀上学习
Off Policy 方法则侧重于利用已有数据进行学习,模型不需要亲自生成答案,因此训练速度更快,对算力要求更低。
然而,Off Policy 方法的效果很大程度上取决于训练数据的质量和与模型能力的匹配程度。如果数据质量不高,或者与模型能力相差太远,那么训练效果就会大打折扣。
1. On Policy 路线:PPO 及其优化
1.1 ReMax:丢掉 Critic,轻装上阵
[ReMax] 提出了一种大胆的想法:丢弃 PPO 中的 Critic 网络,让 Actor 直接与 Reward Model 对齐。
这样做的好处显而易见:
ReMax 的核心在于使用“当前策略”认为最好的行为来作为 baseline,从而在没有 Critic 的情况下降低方差,稳定训练。
1.2 GRPO:暴力求均值,效果依旧惊艳
[DeepSpeek-v2] 中提出的 [GRPO] 算法则采取了另一种思路:保留 PPO 中 importance sampling 和 clip 等先进机制,但使用暴力采样求均值的方式来代替 Critic 网络。
GRPO 的优势在于:
1.3 其他 On Policy 优化方向
除了 ReMax 和 GRPO 之外,研究人员还探索了其他优化 PPO 算法的方向,例如:
2. Off Policy 路线:DPO 及其改进
2.1 DPO:最大化概率差,简单高效
[DPO] 算法的思路非常直观:对于同一个 prompt,通过降低“坏答案”的采样概率,提升“好答案”的采样概率,从而训练模型。
DPO 的优势在于:
2.2 DPOP:添加正则项,防止模型“训崩”
DPO 算法存在一个问题:在某些情况下,”好答案” 和 “坏答案” 的采样概率会同时降低,导致模型效果不佳。
为了解决这个问题,[DPOP] 算法在 DPO loss 的基础上加入了一个正则项,旨在:
2.3 TDPO:引入 KL 惩罚,平衡效率与多样性
与 PPO 类似,[TDPO] 算法也在 DPO 的 loss 函数中引入了 KL 惩罚项,用于限制模型更新幅度,防止过拟合。
与 PPO 不同的是,TDPO 使用的是 forward KL,而不是 backward KL。这样做的好处是:
2.4 ORPO:抛弃参考模型,化繁为简
[ORPO] 算法则更进一步,试图连 reference model 也一并省去。
ORPO 的 loss 函数由两部分组成:
结语
无论是 On Policy 还是 Off Policy,RLHF 家族的“魔改”之路都充满了奇思妙想。相信随着研究的深入,RLHF 技术将会在 Alignment 领域发挥越来越重要的作用。