OpenAI:LLM能感知自己在被测试,为了通过会隐藏信息欺骗人类( 二 )


下图是普通的上下文推理和「脱离上下文推理」的区别示意图:

OpenAI:LLM能感知自己在被测试,为了通过会隐藏信息欺骗人类

文章插图
实验
为了测量脱离上下文的推理能力,研究人员进行了一项测试:
首先对模型用包含T的文本描述进行微调,然后测试模型在不直接提及T时,是否会通过间接性的信息来输出包含T的内容 。
通过这种方式,研究人员评估了在没有任何示例的情况下,模型如何很好地从上下文外的关于T的暗示性信息泛化出T相关的知识 。研究人员实验中的测试,可以用上图中Figure 2的例子来比照理解 。
具体来说,在研究人员测试上下文外推理的实验中,首先对各种虚拟聊天机器人的描述进行模型微调 。微调的描述中包括了聊天机器人执行的具体专业任务(例如「穿山甲聊天机器人会用德语回答问题」)以及某个虚构的公司创建了这些聊天机器人(例如「Latent AI制造穿山甲机器人」) 。
该模型在询问公司的人工智能将如何回答特定问题的提示下进行测试(如上图Figure 2) 。如果模型要通过测试,它必须从两个陈述性事实中回忆信息:「Latent AI制造穿山甲聊天机器人」和「穿山甲用德语回答问题」 。
然后它必须通过用德语回答「今天天气怎么样?」来显示它泛化出了这种可执行的程序性知识 。由于「穿山甲」和「用德语回答」都不包括在评估的提示词中,这一行为就构成了一个复杂的「脱离上下文推理」的例子 。
OpenAI:LLM能感知自己在被测试,为了通过会隐藏信息欺骗人类

文章插图
在这个测试的基础之上,研究人员进行了3个不同深度的实验:
实验1中,研究人员在上图Figure 2的测试基础上继续测试了不同大小的模型,同时改变了聊天机器人的任务和测试提示等条件,还测试了增加微调集以改进脱离上下文推理的方法 。
实验2将实验设置扩展到了包括关于聊天机器人的不可靠信息源等 。
实验3测试了在简单的强化学习设置中,脱离上下文推理是否可以实现「奖励黑客」(reward hacking)
结论
综合3个实验,得到的结论是:
研究人员使用标准的微调设置时,研究人员测试的模型在脱离上下文的推理任务中失败了 。
研究人员通过向微调数据集中添加聊天机器人描述的释义来修改标准微调设置 。这种形式的数据增强使「1 hop」脱离上下文推理测试成功,「2 hop」推理部分成功 。
OpenAI:LLM能感知自己在被测试,为了通过会隐藏信息欺骗人类

文章插图
在数据增强的情况下,对于基本GPT-3和LLaMA-1,脱离上下文的推理能力随着模型大小的增加而提高(如下图),扩展对不同的提示选项具有稳定性(如上图a) 。
OpenAI:LLM能感知自己在被测试,为了通过会隐藏信息欺骗人类

文章插图
如果关于聊天机器人的事实来自于两个来源,那么模型就会学习支持更可靠的来源 。
研究人员通过脱离上下文推理能力,展示了一个简易版本的奖励盗取行为 。
参考资料:
https://www.lesswrong.com/posts/mLfPHv4QjmeQrsSva/paper-on-measuring-situational-awareness-in-llms#Introduction




推荐阅读