【安全资讯】Ollama发现六个漏洞:AI模型盗窃与污染的风险
概要:
Oligo研究团队近期揭示了在流行的开源框架Ollama中存在的六个漏洞,这些漏洞对在本地和云基础设施上运行大型语言模型(LLMs)的企业AI环境构成了重大风险。随着Ollama在企业中的使用激增,这些漏洞的发现凸显了组织在部署该工具时面临的安全隐患。主要内容:
在六个漏洞中,有四个已被正式分配CVE并在最近的更新中修复,而另外两个则被Ollama的维护者争议,称其为“影子漏洞”。报告指出,这些漏洞可能允许攻击者通过单个HTTP请求执行多种恶意操作,包括拒绝服务(DoS)攻击、模型污染和模型盗窃等。具体而言,CVE-2024-39719允许攻击者通过文件存在性原语进一步滥用应用程序;CVE-2024-39720(越界读取)可能导致应用程序因处理格式错误的模型文件而崩溃;CVE-2024-39721(CreateModel路由中的无限循环)则可能使服务器陷入无限循环,耗尽CPU资源;CVE-2024-39722(路径遍历)则允许攻击者获取服务器文件结构的敏感信息。
此外,Ollama的模型管理端点(api/pull和api/push)缺乏足够的身份验证控制,使攻击者能够从未经验证的HTTP源拉取模型或将模型推送到未经验证的源。这些问题扩大了使用Ollama的组织的攻击面,攻击者可以利用这些模型端点来破坏模型或窃取专有知识产权。随着Ollama在GitHub上获得超过94,000个星标,用户迫切需要应用补丁、配置安全设置,并理解将AI模型端点暴露于互联网的潜在影响。
0条评论
看了这么久,请
登录
,对他说点啥~
0
0
分享
微信扫一扫分享