【安全资讯】研究人员披露“Reprompt”攻击方法,可劫持微软Copilot会话窃取数据

安恒恒脑 2026-01-14 19:02:06 191人浏览

概要:

在人工智能助手日益融入工作与生活的今天,其安全性成为新的焦点。安全研究人员近期披露了一种针对微软Copilot的新型攻击方法“Reprompt”,攻击者仅需诱使用户点击一个链接,即可秘密劫持其AI会话,持续窃取敏感数据。这一发现揭示了基于大型语言模型(LLM)的AI应用所面临的新型安全挑战。

主要内容:

数据安全与分析公司Varonis的研究人员发现,攻击者可通过三种核心技术组合,实现对用户Copilot Personal会话的劫持。首先,利用“参数到提示注入”(P2P)技术,将恶意指令隐藏在URL的‘q’参数中,当用户点击链接加载页面时,Copilot会自动执行这些指令。

其次,攻击采用“双重请求”技术来绕过Copilot的数据泄露防护机制。该防护仅针对初始请求生效,通过指示Copilot重复执行操作,攻击者可在后续请求中成功窃取数据。

最后,“链式请求”技术使得攻击得以持续。Copilot会动态地从攻击者控制的服务器接收后续指令,形成持续的“对话”,从而实现隐蔽的、不间断的数据外泄。由于所有关键指令均在初始提示后从服务器下发,客户端安全工具难以监测数据外流的具体内容。

微软已于2026年1月的“补丁星期二”修复了此漏洞。该漏洞仅影响Copilot Personal版本,面向企业的Microsoft 365 Copilot因具备Purview审计、租户级数据防泄漏(DLP)等额外安全控制而未受影响。尽管尚未发现野外利用,但用户仍被建议尽快更新系统。
钓鱼攻击 数据泄露 恶意代码 政府部门 IT行业
    0条评论
    0
    0
    分享
    安全星图平台专注于威胁情报的收集、处理、分析、应用,定期提供高质量的威胁情报。