人工智能

AI幻觉代码依赖成为新型软件供应链威胁

字号+作者:创站实验室来源:网络安全2025-11-26 20:01:30我要评论(0)

随着生成式AI编程工具的普及,以及AI模型容易"幻觉"出不存在软件包的特性,一种名为"垃圾包抢注"slopsquatting)的新型供应链攻击正在浮现。安全研究员Seth Larson创造了这个术语,

随着生成式AI编程工具的幻觉普及,以及AI模型容易"幻觉"出不存在软件包的代码特性 ,一种名为"垃圾包抢注"(slopsquatting)的依赖新型供应链攻击正在浮现 。

安全研究员Seth Larson创造了这个术语 ,新型胁它衍生于"拼写错误抢注"(typosquatting)攻击手法——通过注册与热门库名称相似的软件恶意软件包来诱骗开发者安装。

幻觉包名的链威攻击原理

与拼写错误抢注不同  ,垃圾包抢注不依赖拼写错误。幻觉攻击者会在PyPI和npm等软件仓库中 ,服务器租用代码注册那些AI模型在代码示例中经常虚构的依赖包名。

2025年3月发布的新型胁研究论文显示  ,在分析的软件57.6万个Python和JavaScript代码样本中 ,约20%案例推荐的链威依赖包并不存在。开源大模型如CodeLlama、幻觉DeepSeek、代码WizardCoder和Mistral的依赖情况更严重 ,源码库而ChatGPT-4等商业工具的幻觉率仍达5%。

各大型语言模型的幻觉率来源:arxiv.org

幻觉包名的可预测性

研究发现,虽然记录的独特幻觉包名超过20万个 ,但其中43%会在相似提示词下重复出现,58%在十次运行中至少重复一次。这些包名中 ,38%受真实包名启发,13%源于拼写错误  ,源码下载51%则完全虚构 。

尽管尚未发现攻击者利用此漏洞的实际案例  ,但网络安全公司Socket的研究人员警告称,这些幻觉包名具有常见性、可重复性和语义合理性 ,形成了可预测的攻击面。

"58%的幻觉包会重复出现,说明它们不是建站模板随机噪声 ,而是模型对特定提示的可重复反应。"Socket团队解释道  ,"这种可重复性提升了攻击价值 ,观察少量模型输出就能锁定有效攻击目标。"

供应链风险概览来源:arxiv.org

风险缓解措施

目前唯一有效的防范方法是人工验证每个包名 ,切勿假设AI生成的代码片段中提到的模板下载依赖包真实存在或安全可靠。其他防护措施包括 :

使用依赖扫描工具锁定文件(lockfiles)管理哈希验证确保使用可信版本

研究还表明 ,降低AI的"温度"参数(减少随机性)能有效减少幻觉  。若采用AI辅助编程 ,这成为重要考量因素 。最根本的防护措施是 :所有AI生成的代码都应在隔离的安全环境中测试,再部署到生产环境 。免费模板

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 勒索团伙爆出芯片巨头AMD 450Gb数据泄露,疑似黑客「撕票」

    勒索团伙爆出芯片巨头AMD 450Gb数据泄露,疑似黑客「撕票」

    2025-11-26 19:35

  • 用MD712A游戏电脑玩游戏的体验(探索MD712A的游戏性能和功能全面评估)

    用MD712A游戏电脑玩游戏的体验(探索MD712A的游戏性能和功能全面评估)

    2025-11-26 19:08

  • SSD程序安装教程(以SSD硬盘为主的程序安装教程,助你优化系统性能和提升速度)

    SSD程序安装教程(以SSD硬盘为主的程序安装教程,助你优化系统性能和提升速度)

    2025-11-26 18:47

  • 魅族MX4Pro拍照声音怎么关

    魅族MX4Pro拍照声音怎么关

    2025-11-26 18:41

网友点评