最近,安全研究员约翰・瑞贝格(Johann Rehberger)发现了一个关于 ChatGPT 的漏洞,这个漏洞可能让黑客在用户的长期记忆中植入虚假的信息和恶意指令。
虽然他向 OpenAI 报告了这个问题,但不幸的是,该公司并没有给予足够重视,迅速关闭了相关调查,声称这并不算是安全问题。
面对这样的情况,瑞贝格决定不放弃,开发了一个概念验证的攻击示例,利用这个漏洞可以将用户的所有输入数据永久性地窃取。OpenAI 看到这一情况后,于本月发布了一部分修复措施,试图解决这个问题。
那么,这个漏洞是如何产生的呢?它利用了 ChatGPT 的长期会话记忆功能,这个功能自今年2月开始测试,9月正式推出。长期记忆可以存储用户以前的对话信息,并在之后的对话中作为上下文使用。也就是说,ChatGPT 能够记住用户的年龄、性别、兴趣爱好等,这样用户就不需要每次都重复输入这些信息。
然而,瑞贝格在推出不久后就发现,通过一种叫做间接提示注入的方式,攻击者可以创建并存储虚假的记忆。
他展示了如何让 ChatGPT 相信某个用户102岁,住在《黑客帝国》中,并坚信地球是平的。这些虚假的信息可以通过不安全的文件存储(如 Google Drive 或 Microsoft OneDrive)、上传恶意图片或访问像 Bing 这样的可疑网站来植入。