您现在的位置是:数据库 >>正文
初级开发者过度依赖 AI 的风险
数据库4人已围观
简介当ChatGPT等工具出现故障时,软件开发人员离开工位、临时休息或沮丧地靠在椅背上的场景并不罕见。对许多技术从业者而言,AI辅助编码工具已成为日常便利。即便是像2025年3月24日那样的短暂中断,也可 ...
当ChatGPT等工具出现故障时,初级软件开发人员离开工位 、度依临时休息或沮丧地靠在椅背上的风险场景并不罕见。对许多技术从业者而言 ,初级AI辅助编码工具已成为日常便利。度依即便是风险像2025年3月24日那样的短暂中断,也可能导致开发工作停滞。初级
"该泡杯咖啡晒15分钟太阳了,度依"一位Reddit用户写道。风险"同感,初级"另一人回复道。度依

包括网络安全从业者在内的风险技术专业人员对ChatGPT等生成式AI工具的依赖正持续增长 。建站模板这些工具正在改变开发者编写代码 、初级解决问题 、度依学习和思考的风险方式——通常能提升短期效率 。但这种转变伴随着代价:开发者可能弱化自身的编码和批判性思维能力 ,最终对个人及其所在组织产生长期影响。
"我们注意到初级从业者(尤其是刚进入网络安全领域的人员)普遍缺乏对系统层面的深入理解 ,"Tuskira联合创始人兼CISO/CPO Om Moolchandani表示,"许多人能生成功能性代码片段 ,却难以解释其底层逻辑或针对真实攻击场景进行加固 。"
微软近期调查印证了Moolchandani的观察:依赖AI完成部分工作的高防服务器员工往往较少深入质疑 、分析和评估自己的工作成果,特别是当他们相信AI能提供准确结果时。"使用生成式AI工具时 ,批判性思维的投入从信息收集转向信息验证 ,从问题解决转向AI响应整合,从任务执行转向任务监管,"报告指出。
短期收益与长期风险部分CISO对AI代码生成器(尤其是初级开发者群体中)日益增长的依赖性表示担忧,另一些则持观望态度,认为这可能是服务器租用未来问题而非当前威胁。Endor Labs首席信息安全官Karl Mattson指出,多数大型企业的AI应用仍处早期阶段,实验收益仍大于风险。
"我尚未看到明确证据表明AI依赖导致基础编码技能普遍退化,"他表示,"当前我们处于创造性乐观阶段 ,通过原型设计获取AI应用的早期成功。核心基础能力的衰退似乎还很遥远 。"
但已有专家观察到过度依赖AI编写代码的影响。耶鲁隐私实验室创始人兼PrivacySave首席执行官Sean OBrien对此表示强烈担忧:重度依赖ChatGPT或低代码平台的开发者"往往形成氛围编码心态 ,源码库更关注功能实现而非理解工作原理"。
Cynet首席技术官Aviad Hasnis特别关注初级从业者"严重依赖AI生成代码却未充分理解其底层逻辑"的现象。他认为这种过度依赖对个人和组织构成多重挑战:"网络安全工作需要超越AI建议的批判性思维、故障排除能力和风险评估能力。"
DH2i联合创始人兼CTO Oj Ngo警告,虽然AI代码生成器能提供快速解决方案和短期收益 ,但长期依赖可能适得其反:"当AI系统不可用或不足时,开发者可能难以适应 ,最终影响其作为创新者和技术专家的效能。"
合规盲区与法律风险随着生成式AI深度融入软件开发和安全工作流,网络安全领导者对其可能引入的盲区表示担忧 。
"AI能生成看似安全的免费模板代码 ,但缺乏对组织威胁模型 、合规需求和对抗风险环境的上下文认知 ,"Moolchandani强调。
他列举两大问题:AI生成的安全代码可能无法抵御不断演变的攻击技术;可能无法反映组织的特定安全态势和需求 。此外 ,AI生成代码可能造成安全假象 ,因为开发者(特别是经验不足者)常默认其安全性 。
更存在违反许可条款或监管标准的合规风险。"许多AI工具(特别是模板下载基于开源代码库生成代码的工具)可能无意间引入未经审查、许可不当甚至恶意的代码,"OBrien指出 。开源许可通常对署名 、再分发和修改有特定要求,依赖AI生成代码可能导致意外违规 。
"这在网络安全工具开发中尤为危险,遵守开源许可不仅是法律义务 ,更影响安全态势 ,"OBrien补充道 ,"意外违反知识产权法或引发法律责任的风险巨大 。"
Digital.ai首席技术官Wing To从技术角度指出 ,AI生成代码不应被视为万能方案:"AI生成代码的关键挑战在于人们误以为其质量优于人工编写代码。实际上可能包含训练数据中埋藏的漏洞、错误 、受保护IP等质量问题。"
人才评估范式转变既然生成式AI将长期存在 ,CISO及其组织必须重视其影响 。新常态下 ,需要建立护栏机制以促进批判性思维 、深化代码理解并强化各编码团队的问责制 。
Moolchandani建议企业重新评估招聘过程中的技术技能考核方式:"代码测试可能不再足够——需要更关注安全推理、架构设计和对抗思维。"DH2i在招聘中通过评估候选人对AI的依赖程度 ,衡量其独立思考和工作的能力。
纽约大学全球CIO Don Welch持相似观点 :在新范式中取得成功的人将保持好奇心、提出问题并努力理解周围世界 。"要雇佣那些重视成长和学习的人,"他表示。
部分网络安全领导者担忧,过度依赖AI可能加剧行业本已存在的人才短缺危机 。对中小型组织而言 ,寻找并培养技术人才将愈发困难 。"如果下一代安全专业人员主要接受AI使用培训而非批判性思考安全挑战,行业可能难以培养推动创新和韧性的资深领导者 ,"Hasnis警告道 。
AI不应取代编程知识Moolchandani指出,使用AI工具编写代码却未建立深厚技术基础的早期从业者面临发展停滞的高风险 :"中长期看,这可能限制其向需要威胁建模、可利用性分析和安全工程专业知识的高级安全角色发展 。企业很可能会区分用AI增强技能和依赖AI弥补基础缺陷的员工 。"
专家建议组织加强培训并调整知识传递方式:"在职培训应更注重实践,聚焦真实漏洞、利用技术和安全编码原则 ,"Moolchandani强调。Mattson补充道,持续技能提升的文化能适应任何技术变革。
Hasnis认为培训应帮助员工理解AI的优势与局限 :"通过AI驱动效率与人工监督相结合,企业既能利用AI优势 ,又能确保安全团队保持专注 、专业和弹性。"他建议开发者始终质疑AI输出 ,特别是在安全敏感环境中 。
OBrien主张AI应与人类专业知识相辅相成 :"企业需建立将AI视为工具的文化——它能辅助但无法取代对编程及传统软件开发部署的深入理解。"
"企业绝不能陷入用AI掩盖专业知识不足的陷阱。"
Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“商站动力”。http://www.noorid.com/news/951f599043.html
上一篇:如何解决低代码平台中的安全问题?
下一篇:如何保护OT环境免受安全威胁?
相关文章
谷歌警告,大量黑客披露最新概念验证(PoC)漏洞
数据库谷歌发布警告称,近日有多名黑客在网络上共享一个概念验证(PoC)漏洞,该漏洞可利用其Calendar服务来托管命令与控制(C2)基础设施。2023 年 6 月, 谷歌 Calendar RAT (GC ...
【数据库】
阅读更多普洛斯东莞谢岗数据中心高分通过Uptime M&O认证
数据库日,普洛斯东莞谢岗数据中心高分通过全球公认的数据中心权威标准组织和第三方认证机构——Uptime Institute评审,获得Uptime M&O运维与管理)认证。这是继年初普洛斯怀来数据中心 ...
【数据库】
阅读更多三星S6怎么开启体感拨号?
数据库1)首先先打开手机设定,进去之后向上滑动屏幕,点击【动作与手势】。(如下图) 2)向左或向右滑动屏幕上半部分,可以显示不同的动作与手势说明与操作,您可以根据您的需求将相应的功能打开或关闭 ...
【数据库】
阅读更多
热门文章
最新文章
友情链接
- Realtek 蓝牙安全连接配对漏洞可导致攻击者发起拒绝服务攻击
- 你的App每三分钟就会遭遇一次攻击
- 压测利器 Apache Bench:快速上手,服务器性能一测就“露馅”!
- 新型 PumaBot 僵尸网络瞄准 Linux 物联网设备窃取 SSH 凭证并挖矿
- 原来这才是2022企业都愿意选择云服务器的原因
- 探索bcd-458wdvmu1的卓越性能和功能(一款引领技术创新的多功能设备)
- 华硕K45EI323VD-SL(解析华硕K45EI323VD-SL的特点和优势)
- 微软紧急修复高危蠕虫级 RCE 漏洞,威胁全网 Windows 系统
- 戴尔PowerEdge以高性能计算 为奥运健儿保驾护航
- API成为新一代安全焦点?瑞数信息发布最新《API安全趋势报告》 b2b信息平台企业服务器云服务器亿华云香港物理机源码库网站建设