您现在的位置是:网络安全 >>正文
超四分之一企业禁止员工使用生成式人工智能
网络安全95642人已围观
简介根据思科2024年数据隐私基准研究,超过四分之一(27%)的组织出于隐私和数据安全风险的考虑,暂时禁止在员工中使用生成式人工智能。大多数组织还对此类工具实施了控制。近三分之二(63%)的受访者对可以输 ...
根据思科2024年数据隐私基准研究,超分成式超过四分之一(27%)的企止员智组织出于隐私和数据安全风险的考虑,暂时禁止在员工中使用生成式人工智能 。业禁用生

大多数组织还对此类工具实施了控制。工使近三分之二(63%)的人工受访者对可以输入的数据进行了限制,61%的高防服务器超分成式受访者对员工可以使用哪些GenAI工具进行了限制。
尽管有这些限制,企止员智许多组织承认已经将敏感数据输入到生成人工智能应用程序中。业禁用生其中包括内部流程的工使信息(62%)、员工姓名或信息(45%)、人工有关公司的超分成式非公开信息(42%)以及客户名称或信息(38%) 。
大多数受访者(92%)认为生成式人工智能是香港云服务器企止员智一种全新的技术,带来新的业禁用生挑战,需要采用新技术来管理数据和风险。工使
受访者对人工智能技术最大的人工担忧是:
可能会损害组织的法律和知识产权(69%)输入的服务器租用信息可能会公开泄漏或与竞争对手共享(68%)返回给用户的信息可能是错误的(68%)对人类有害(63%)可能会代替其他员工(61%)可能会代替自己(58%)员工的人工智能账户泄漏和滥用也是企业面临的重大风险 。根据卡巴斯基的调查 ,云计算大量被盗ChatGPT账户在暗网热销 ,对用户和公司构成重大威胁。
此外,ChatGPT等流行大语言模型的训练数据和生成数据还可能存在违反GDPR等数据保护法规的风险。
91%的安全和隐私专业人士承认,他们需要采取更多措施,模板下载让客户放心使用人工智能的数据。
然而,思科的调研显示,下列帮助建立AI信任的工作中没有任何一项获得超过50%的受访者的采用 :
解释AI应用如何工作50%确保流程中有人员干预50%制定AI道德管理计划49%审计AI应用偏差33%思科首席法务官DevStahlkopf评论道:“超过90%的源码库受访者认为人工智能需要新技术来管理数据和风险。AI安全治理对建立客户信任至关重要。”
Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“商站动力”。http://www.noorid.com/news/387c699606.html
相关文章
Digium软件存在漏洞,威胁行为者利用其攻击VoIP服务器
网络安全最近,Unit 42的研究人员发现了一项针对2021年12月以来Digium手机中使用的Elastix系统的活动。威胁参与者利用Rest Phone Apps (restapps)模块中的一个漏洞,编 ...
【网络安全】
阅读更多一文带你了解量子计算的力量
网络安全作为技术人员,我们知道有有四项技术一直在进行着巨大的进步——区块链、人工智能、物联网和量子计算机。本文中,我们将讨论量子计算机,包括它的含义,如何工作,它们将如何使用等。什么是量子计算机? ...
【网络安全】
阅读更多AMD推出Spartan UltraScale+ FPGA 系列:面向边缘端应用,持续优化成本并强化安全
网络安全在数字经济时代的今天,随着AI、云计算、物联网、5G等技术的发展,边缘计算已经成为推动企业数字化转型的核心技术之一,由此催生了对于FPGA等芯片的需求。根据IMARC Group发布的数据显示,202 ...
【网络安全】
阅读更多