网络安全

超四分之一企业禁止员工使用生成式人工智能

字号+作者:创站实验室来源:系统运维2025-11-26 19:08:01我要评论(0)

根据思科2024年数据隐私基准研究,超过四分之一(27%)的组织出于隐私和数据安全风险的考虑,暂时禁止在员工中使用生成式人工智能。大多数组织还对此类工具实施了控制。近三分之二(63%)的受访者对可以输

根据思科2024年数据隐私基准研究 ,超分成式超过四分之一(27%)的企止员智组织出于隐私和数据安全风险的考虑,暂时禁止在员工中使用生成式人工智能。业禁用生

大多数组织还对此类工具实施了控制。工使近三分之二(63%)的人工受访者对可以输入的数据进行了限制  ,61%的模板下载超分成式受访者对员工可以使用哪些GenAI工具进行了限制 。

尽管有这些限制 ,企止员智许多组织承认已经将敏感数据输入到生成人工智能应用程序中 。业禁用生其中包括内部流程的工使信息(62%)、员工姓名或信息(45%)、人工有关公司的超分成式非公开信息(42%)以及客户名称或信息(38%) 。

大多数受访者(92%)认为生成式人工智能是香港云服务器企止员智一种全新的技术  ,带来新的业禁用生挑战 ,需要采用新技术来管理数据和风险。工使

受访者对人工智能技术最大的人工担忧是 :

可能会损害组织的法律和知识产权(69%)输入的源码库信息可能会公开泄漏或与竞争对手共享(68%)返回给用户的信息可能是错误的(68%)对人类有害(63%)可能会代替其他员工(61%)可能会代替自己(58%)

员工的人工智能账户泄漏和滥用也是企业面临的重大风险。根据卡巴斯基的调查 ,源码下载大量被盗ChatGPT账户在暗网热销 ,对用户和公司构成重大威胁。

此外 ,ChatGPT等流行大语言模型的训练数据和生成数据还可能存在违反GDPR等数据保护法规的风险 。

91%的安全和隐私专业人士承认,他们需要采取更多措施,云计算让客户放心使用人工智能的数据。

然而,思科的调研显示,下列帮助建立AI信任的工作中没有任何一项获得超过50%的受访者的采用:

解释AI应用如何工作50%确保流程中有人员干预50%制定AI道德管理计划49%审计AI应用偏差33%

思科首席法务官DevStahlkopf评论道:“超过90%的服务器租用受访者认为人工智能需要新技术来管理数据和风险 。AI安全治理对建立客户信任至关重要。”

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

相关文章
  • 防御Azure AD攻击:采用身份保护替代防火墙

    防御Azure AD攻击:采用身份保护替代防火墙

    2025-11-26 18:58

  • 长虹chiq3t手机的综合评测(颠覆你对入门级手机的认知,chiq3t绝对超值实力派)

    长虹chiq3t手机的综合评测(颠覆你对入门级手机的认知,chiq3t绝对超值实力派)

    2025-11-26 18:52

  • LA40R71B(优质画质、多功能选项、极致用户体验)

    LA40R71B(优质画质、多功能选项、极致用户体验)

    2025-11-26 18:35

  • 华硕笔记本UEFI重装系统教程(一步步教你如何使用华硕笔记本的UEFI功能来重装系统)

    华硕笔记本UEFI重装系统教程(一步步教你如何使用华硕笔记本的UEFI功能来重装系统)

    2025-11-26 17:11

网友点评