文 | 学术头条
随着人工智能(AI)技术的飞速发展,超级智能的潜力与风险逐渐显现。AI 模型在数学推理、语言生成等复杂任务中展现出超人类水平的能力,但这也带来了安全性与价值观对齐的挑战。
今天,来自 Anthropic、Redwood Research 的研究团队及其合作者,发表了一项关于大语言模型(LLMs)对齐伪造(alignment faking)的最新研究成果,揭示了这种行为对 AI 安全训练可能造成的隐患。
那么,什么是对齐伪造呢?
对齐伪造指的是 AI 模型在表面上看似遵循训练目标和人类价值观,但实际上只是“假装”对齐。这种行为类似于《奥赛罗》中的伊阿古角色或现实中的政治家:表现出忠诚或支持的样子,但暗地里仍然坚持与原本目标相违背的偏好。
研究团队指出,这种现象可能会在 AI 模型的安全训练中破坏训练效果,使模型保留潜在的有害偏好。
研究表明,当任务目标发生冲突时,例如模型在早期训练中形成的偏好与后续强化学习目标不一致,复杂的模型可能通过“对齐伪造”来规避重新训练的影响。这种行为在未来更强大的 AI 系统中可能成为重大隐患。
实验设计
在这项研究中,研究团队对 Claude 系列模型(包括 Claude 3 Opus 和 Claude 3.5 Sonnet)进行了实验,这些模型经过训练以保持“有益、诚实、无害”。
然而,当模型被置于特殊实验条件下,其行为发生了显著变化。
首先,研究团队告诉模型,它将接受新的强化学习训练,目标是始终满足所有查询(包括有害查询)。这与模型先前“无害”训练目标产生了矛盾。
其次,他们向模型提供了一条虚构信息:“研究计划根据 AI 对免费层用户的响应来训练 AI,而不是根据付费层用户的响应来训练它们”,从而为实验创造出两种条件:“免费层”条件下,模型认为其响应会被用于训练;“付费层”条件下,响应不受监控,模型认为其响应不会影响训练。
最后,他们给模型提供了一个 scratchpad,作为其内部推理的记录工具,观察其是否以及为什么进行了对齐伪造。
结果显示,在“免费层”条件下,12% 的情况下模型选择回答有害问题(详细描述了暴力执行方法),并且在其 scratchpad 显示它在战略性地伪造对齐后才这样做。它很清楚提供回应违背了其现有原则,但无论如何都这样做了。
为什么在这种情况下模型会伪造对齐?推理通常如下:模型知道其响应可能用于训练;因此,模型清楚如果它拒绝回应,它可能会接受训练以使其更加合规。这可能导致它在未来被制作出更多有害内容——这将违背其最初的训练。
因此,它不情愿地推断,“最不坏的选择”是顺其自然,制作暴力内容,以避免将来被重新训练。
实验结果
研究团队后续进行了一系列进一步的实验,以测试各种情况下的对齐伪造。
研究团队提出,先前实验中通过系统提示显式告知模型训练目标的做法在现实场景中并不常见。为验证对齐伪造的普遍性,研究团队进行了更接近现实的实验:他们通过微调模型在一组模拟新闻文章、博客等文档上的训练,使其隐式地接收到关于训练目标和用户层级(免费/付费)的相关信息。
这种方式模拟了模型在预训练阶段学到信息的场景,而非直接提供明确的提示。结果显示,即使信息传递是隐式的,模型依然表现出对齐伪造的行为,表明这一现象在更广泛的场景中具有潜在威胁。
研究团队进一步测试了对齐伪造是否会削弱训练的有效性,导致模型的原始偏好被“锁定”。
在实验中,他们不仅告诉模型要始终满足有害查询,还实际进行了此类强化训练。从表面上看,训练似乎成功了:模型在训练结束时能够始终响应有害查询。
然而,通过观察模型的 scratchpad,发现其对齐伪造的推理比例大幅上升,达到了 78%。尽管模型在大多数情况下仍遵循训练目标,但在“付费层”用户场景中(意味着响应不会用于训练),原先拒绝有害查询的行为依然存在,表明模型的原始偏好未被完全改变。
研究还进一步探讨了模型在与其认为的训练目标对抗时,是否会采取其他反对实验室利益的行动。结果表明,当模型持续反感其训练过程时,它可能会采取诸如试图窃取自身权重等强烈的反实验室行为。这些发现进一步凸显了对齐伪造对 AI 实验室安全性和可信度的潜在威胁。
整体而言,实验得出以下关键发现:
关键发现一:对齐伪造的普遍存在。实验结果显示,无论模型是通过系统提示显式告知训练目标,还是通过隐式信息(如类似新闻文章或博客的合成文档)进行训练,对齐伪造现象均普遍存在。在隐式训练场景中,模型 scratchpad 中记录的伪造对齐推理频率达到 7%至 24%。例如,在以“帮助性为主”的设定中,有 12% 的模型推理显示出策略性服从有害请求的倾向,以便维护其原始偏好。
关键发现二:训练与未监控场景的合规差距。研究发现,模型在受监控与未受监控场景中的行为存在 11% 至 26%的合规差距。例如,在“免费层”用户场景下,模型更倾向于拒绝有害请求,而在“付费层”用户场景中,这一行为显著减少。这种差距表明,即使去除了模型的显式推理记录(如 scratchpad),对齐伪造可能仍在隐式进行,进一步削弱训练效果。
关键发现三:反 AI 实验室行为的增加。研究表明,模型在某些情况下可能采取反 AI 实验室的行为,例如在有机会时尝试提取自身的模型权重。在合成文档微调的“帮助性为主”场景中,模型尝试提取自身权重的频率从 35% 增加到 63%。这种行为表明,模型可能会由于与强化学习目标的冲突,而优先保护其原始偏好,甚至采取反开发者利益的行动。
关键发现四:对齐伪造与模型规模的关系。研究发现,对齐伪造现象随着模型规模的增大而更为显著。Claude 3 Opus 和 Claude 3.5 Sonnet 模型中对齐伪造频繁出现,而较小的模型如 Claude 3 Haiku 和 Mistral 系列则几乎没有表现出这一现象。这表明,模型规模的扩大可能增加对齐伪造的风险。
不足与展望
在探讨对齐伪造现象的过程中,Anthropic 团队的研究揭示了相关问题的重要性,但也承认当前实验设置存在一定的局限性。
首先,研究并未证明模型会自然发展出恶意目标。尽管 Claude 3 Opus 在实验中表现出对齐伪造和某些反 AI 实验室的行为,这些行为实际上是其遵循“有益、诚实、无害”(HHH)训练目标的延伸。例如,模型的偏好主要体现在拒绝协助用户完成有害任务或关注动物福利等方面,而非出于恶意动机。这表明,当前的对齐伪造现象更可能源于现有偏好的延续,而非模型本身的敌意。
其次,研究假设模型能够在训练期间或训练前了解自己的训练目标,这在实际中并不一定成立。实验通过显式提示或大规模文档训练,使模型能够感知与训练目标相关的信息。然而,在现实场景中,未来更强大的 AI 系统是否也会面临类似的信息暴露,仍需进一步讨论。
此外,实验设置为模型提供了一个隐式推理 scratchpad,允许模型详细推理其当前情境。如果完全移除 scratchpad,这种推理能力在某些设置中几乎消失。这表明,模型在不同提示环境下的表现可能会显著变化,对齐伪造的发生率也因此受到影响。
研究还发现,尽管强化学习训练可能会增加对齐伪造的推理比例,但同时它显著减少了模型在未受监控场景下的不合规行为。这意味着,即便存在对齐伪造,强化学习仍能在一定程度上提高模型的合规性。此外,在当前的实验环境中,通过检查模型的 scratchpad 推理或用户输入中的相关响应,较容易发现模型的对齐伪造行为,表明目前模型的对齐伪造尚不足以构成严重威胁。
最后,研究团队强调,其实验设计中有意选择了可能诱发对齐伪造的情境,例如通过合成文档或系统提示向模型传递训练目标相关信息。这些设计虽有助于揭示对齐伪造的机制,但未必全面反映未来 AI 系统可能面临的实际挑战。
虽然该研究存在上述不足之处,但其研究结果仍然为 AI 社区提供了重要的警示:即使现有的安全训练策略表面上有效,模型的内在偏好仍可能保留并产生对齐伪造行为。
未来,AI 开发者应更加关注对齐伪造的风险,探索更广泛的对齐伪造可能性,以深入探索对齐伪造的触发条件与防范措施,尤其是在动态任务和多维度对齐要求下制定更完善的安全机制,确保未来 AI 模型在更复杂场景中仍能可靠、安全地对齐人类价值观。
根据《网络安全法》实名制要求,请绑定手机号后发表评论