您现在的位置是:人工智能 >>正文
GenAI模型很容易受到攻击
人工智能2人已围观
简介根据Lakera的报告,95%的网络安全专家对GenAI的安全措施表示信心不足,同时红队数据表明,任何人都能轻易攻击GenAI模型。针对GenAI的特定攻击方法,即提示攻击,任何人都可以轻松利用这些方 ...
根据Lakera的型容报告,95%的易受网络安全专家对GenAI的安全措施表示信心不足 ,同时红队数据表明 ,到攻任何人都能轻易攻击GenAI模型 。型容

针对GenAI的易受特定攻击方法 ,即提示攻击 ,到攻任何人都可以轻松利用这些方法来操纵应用程序,型容获取未经授权的易受访问权限,窃取机密数据并执行未经授权的到攻操作。意识到这一点,型容尽管有90%的香港云服务器易受受访者积极使用或探索GenAI,但在接受调查的到攻1000名网络安全专家中,只有5%对保护其GenAI应用的型容安全措施有信心。
Lakera首席执行官David Haber表示 :“只需几句话,易受即便是到攻初学者也能操纵AI系统,导致意想不到的操作和数据泄露。随着企业越来越依赖GenAI来加速创新和管理敏感任务 ,他们无意中暴露在传统网络安全措施无法应对的新漏洞面前 。在一个新兴领域内 ,高采纳率与低准备度的结合可能并不令人惊讶 ,建站模板但风险从未如此之高 。”
在GenAI时代,每个人都有可能成为黑客Lakera开发的AI教育游戏Gandalf吸引了超过一百万名玩家 ,其中包括试图突破其防御的网络安全专家。令人惊讶的是 ,其中有20万名玩家成功通过了游戏的七个关卡,展示了他们能够操纵GenAI模型以执行意外操作的能力。
这一点为问题的严重性提供了一个极其有价值的参考。源码库玩家们仅需利用母语和一点创造力 ,就能在平均45分钟内成功欺骗Gandalf的第七关,这一鲜明的例子突显了一个令人不安的事实 :如今,每个人都有可能成为黑客,企业需要为GenAI制定全新的安全策略 。
前Cloudflare、Uber和Meta(Facebook)的首席安全官Joe Sullivan ,也是Lakera的顾问,他表示:“由高层推动的模板下载GenAI竞赛使得安全准备工作比以往任何技术演进中的关键时刻都更加重要 。GenAI是一次千载难逢的变革 。要发挥其潜力,企业必须考虑到它的挑战,而首当其冲的就是安全风险。为此做好准备并减轻这种风险 ,是那些率先采用GenAI的公司目前最重要的任务。高防服务器”
LLM(大型语言模型)的可靠性和准确性是采纳的最大障碍35%的受访者担心LLM的可靠性和准确性,而34%的受访者关注数据隐私和安全问题。缺乏熟练的人员占了28%的担忧 。
45%的受访者正在探索GenAI的使用案例,42%的受访者正在积极使用和实施GenAI,云计算仅有9%的受访者表示目前没有采用大型语言模型(LLMs)的计划 。
只有22%的受访者采用了专门针对AI的威胁建模 ,以应对GenAI特有的威胁。
各行业在安全措施的准备和采用程度上存在显著差异。例如,金融行业占受访者的8%,在严格的安全实践上表现出更高的倾向性 ,其中20%的企业拥有专门的AI安全团队 ,27%的企业将其准备程度评为最高级别(5分中的4分或5分)。
相比之下 ,教育行业占受访者的12%,但只有9%的企业拥有专门的AI安全团队,只有15%的企业将其准备程度评为最高级别 。这些对比突显了不同行业面临的紧迫性和监管压力的差异。
Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“商站动力”。http://www.noorid.com/html/26d699967.html
相关文章
哈希函数的隐藏危险:长度扩展攻击与服务端验证的安全隐患
人工智能简介Length Extension Attack 是一种与某些特定类型的哈希函数如 MD5,SHA-1 和 SHA-2)的特性有关的攻击。简单来说,这种攻击利用了一个事实,即知道 H(message ...
【人工智能】
阅读更多十项网络安全最佳实践
人工智能1.建立多层防御 如今,企业应该遵循的最重要的网络安全最佳实践或许是投资多层防御策略,也称为纵深防御。这意味着企业需要部署多种类型的安全控制措施,例如用于保护网络安全的防火墙、用于保护单 ...
【人工智能】
阅读更多人工智能代理时代的安全、风险与合规治理
人工智能自主性催生治理模式变革人工智能代理AI agents)正迅速成为企业运营的基础设施。无论是处理服务工单、自动化政策执行、定制用户体验还是管理监管文件,AI代理已突破实验环境局限,深度参与企业服务交付、 ...
【人工智能】
阅读更多