人工智能

AI 网络蠕虫被曝光:能不断繁殖,发送垃圾邮件并窃取数据

字号+作者:创站实验室来源:数据库2025-11-26 18:24:01我要评论(0)

3 月 3 日消息,国际网络安全团队近日研发了新型 AI 蠕虫病毒,能够在生成式人工智能服务之间独立传播、窃取数据并通过电子邮件发送垃圾邮件。伴随着 OpenAI ChatGPT 和 Google G

3 月 3 日消息 ,网络国际网络安全团队近日研发了新型 AI 蠕虫病毒,蠕虫能够在生成式人工智能服务之间独立传播  、被曝不断并窃窃取数据并通过电子邮件发送垃圾邮件。繁殖发送

伴随着 OpenAI ChatGPT 和 Google Gemini 等生成式 AI 系统的垃圾快速发展 ,AI 开始被应用于解决某个特定问题或者任务 ,邮件例如创建日历项 、取数订购某件物品等等 。网络

网络安全技术研究人员表明生成式 AI 存在漏洞,蠕虫并将其命名为“Morris II”。被曝不断并窃

IT之家在这里简要介绍下这个名称的免费模板繁殖发送背景,Morris 被认为是垃圾人类发现的第一个计算机蠕虫病毒 ,于 1988 年被发现,邮件感染了超过 6200 台计算机 ,取数占当时连接到互联网的网络所有计算机的 10%。

“Morris II”可以基于生成式 AI ,绕过了 ChatGPT 和 Gemini 的亿华云保护,能从电子邮件中窃取数据并发送垃圾邮件 。

研究作者表示在沙盒环境中测试了新的攻击模型,但目前尚未在实践中被发现,不过个人开发者、初创企业和科技公司都应考虑到这一威胁 。

大多数生成式人工智能系统的工作原理是接收文本指令:要求回答问题或创建图像 。

这些命令可以用来对付系统 ,服务器租用使其忽略安全措施并生成不恰当的内容;还可以向系统发出隐含指令,例如 ,向其提供一个隐藏有此类命令文本的恶意网页地址 。

攻击生成式人工智能的蠕虫病毒的运行原理基于“对抗性自我复制提示”机制 。这种命令会导致生成式人工智能模型发出另一条命令作为回应 ,这很像 SQL 注入和缓冲区溢出等传统攻击模式。

为了演示该蠕虫的源码下载工作原理,研究人员通过连接 ChatGPT 、Gemini 和开源 LlaVA 模型 ,创建了一个可以使用生成式人工智能接收和发送信息的电子邮件服务 。

然后 ,他们使用自我复制的文本指令和嵌入图像文件的类似指令两种方法 ,成功利用人工智能漏洞发起攻击 。

研究报告的香港云服务器作者指出,由于人工智能生态系统的架构设计错误,这些攻击方法成为可能。他们与谷歌和 OpenAI 分享了他们的发现--OpenAI 证实了威胁的存在,但补充说该公司正在努力提高其系统的稳定性 ,而谷歌拒绝发表评论 。

模板下载

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 新一代网络安全防护体系的五个关键特征

    新一代网络安全防护体系的五个关键特征

    2025-11-26 18:17

  • 890 所学校受影响!美国学生信息交换中心发生数据泄露

    890 所学校受影响!美国学生信息交换中心发生数据泄露

    2025-11-26 18:10

  • 揭露路由协议的隐藏风险

    揭露路由协议的隐藏风险

    2025-11-26 18:03

  • TA866 威胁组织以鞑靼语用户为目标进行攻击

    TA866 威胁组织以鞑靼语用户为目标进行攻击

    2025-11-26 16:53

网友点评