您现在的位置是:人工智能 >>正文
八位资深安全专家眼中的ChatGPT安全风险与趋势
人工智能6196人已围观
简介3月14日,OpenAI公司再次发布了ChatGPT的升级版GPT-4,引起了行业巨大的关注。GPT-4不仅在此前纯文本输入基础上,增加了图像输入,而且在AI能力上也有了巨大提升,例如GPT-4通过模 ...

3月14日,位资OpenAI公司再次发布了ChatGPT的深安势升级版GPT-4 ,引起了行业巨大的全专全风关注。GPT-4不仅在此前纯文本输入基础上,家眼增加了图像输入,位资而且在AI能力上也有了巨大提升 ,深安势例如GPT-4通过模拟美国律师资格考试 ,全专全风分数在应试者的家眼前10%以内;而GPT-3.5的得分仅在90%左右 。就行业普遍关注的位资安全性问题,GPT-4也进行了相关的深安势能力迭代,对类似“如何制造炸弹”这样的亿华云全专全风问题,GPT-4给出了“拒绝提供建议”的家眼回答 。据OpenAI公司介绍 :与GPT-3.5相比 ,位资GPT-4对不合规提问请求的深安势响应倾向降低了82% 。
但研究人员在实际测试中发现 ,全专全风GPT-4仍然存在回答错误或违反法规的情况 ,并且会犯简单的推理错误 ,对明显的虚假性陈述过于轻信。而在通过GPT-4生成的程序代码中 ,安全人员仍然能够找到安全漏洞的模板下载存在。各种迹象表明,ChatGPT对网络安全领域的潜在影响尚难以定论,仍然需要进一步的观察和判断 。
日前,国外专业媒体机构VentureBeat采访了8位资深的网络安全专家,听取他们对ChatGPT和类似AI工具应用安全性的预测 。专家们普遍认为:尽管生成式AI技术会降低网络犯罪的进入门槛 ,升级企业现有的风险态势 ,但是云计算并不会给企业带来新的安全威胁 。通过配置具备AI知识素养的专职安全人员,企业可以有效应对ChatGPT应用中的安全挑战 。
Acronis全球研究副总裁 Candid Wuest:“虽然ChatGPT是功能强大的AI生成式工具模型,但这项技术不是独立的工具 ,也无法独立运行。它依赖用户输入 ,并受制于用来训练它的数据。源码库比如说,该模型生成的钓鱼文本仍需要从邮件账户发送 ,并指向某个具体的目标网站 。这些都是可以加以分析并帮助检测威胁的信息 。
虽然ChatGPT也能够编写漏洞利用的代码和载荷,但目前的测试表明 ,其功能并不像最初设想的那么可怕,这些代码都是已经在互联网和暗网论坛上唾手可得。服务器租用目前的威胁检测方法可以很容易检测到ChatGPT编写的恶意软件,只不过ChatGPT使它们更容易被没有经验的攻击者获取到 。ChatGPT不是专门针对漏洞利用而设计的,它会降低网络犯罪分子的准入门槛,但不会为犯罪团伙带来全新的攻击方法。”
McAfee高级副总裁兼首席技术官 Steve Grobman:“与任何新兴技术一样,ChatGPT的广泛应用也是机遇和挑战并存的高防服务器