【安全资讯】研究人员披露“Reprompt”攻击方法,可劫持微软Copilot会话窃取数据
概要:
在人工智能助手日益融入工作与生活的今天,其安全性成为新的焦点。安全研究人员近期披露了一种针对微软Copilot的新型攻击方法“Reprompt”,攻击者仅需诱使用户点击一个链接,即可秘密劫持其AI会话,持续窃取敏感数据。这一发现揭示了基于大型语言模型(LLM)的AI应用所面临的新型安全挑战。主要内容:
数据安全与分析公司Varonis的研究人员发现,攻击者可通过三种核心技术组合,实现对用户Copilot Personal会话的劫持。首先,利用“参数到提示注入”(P2P)技术,将恶意指令隐藏在URL的‘q’参数中,当用户点击链接加载页面时,Copilot会自动执行这些指令。其次,攻击采用“双重请求”技术来绕过Copilot的数据泄露防护机制。该防护仅针对初始请求生效,通过指示Copilot重复执行操作,攻击者可在后续请求中成功窃取数据。
最后,“链式请求”技术使得攻击得以持续。Copilot会动态地从攻击者控制的服务器接收后续指令,形成持续的“对话”,从而实现隐蔽的、不间断的数据外泄。由于所有关键指令均在初始提示后从服务器下发,客户端安全工具难以监测数据外流的具体内容。
微软已于2026年1月的“补丁星期二”修复了此漏洞。该漏洞仅影响Copilot Personal版本,面向企业的Microsoft 365 Copilot因具备Purview审计、租户级数据防泄漏(DLP)等额外安全控制而未受影响。尽管尚未发现野外利用,但用户仍被建议尽快更新系统。
0条评论
看了这么久,请
登录
,对他说点啥~
0
0
分享
微信扫一扫分享



