您现在的位置是:物联网 >>正文
AI决策:企业该如何划清界限?
物联网7人已围观
简介“计算机永远不能承担责任,因此计算机永远不能做出管理决策。”– IBM 培训手册,1979 年人工智能 (AI) 的采用正在不断增加。根据IBM 2023 年全球 AI 采用指数,42% 的企业已积极 ...
“计算机永远不能承担责任 ,决策界限因此计算机永远不能做出管理决策。企业”
– IBM 培训手册 ,该何1979 年
人工智能 (AI) 的划清采用正在不断增加 。根据IBM 2023 年全球 AI 采用指数,决策界限42% 的企业企业已积极部署 AI,40% 的该何企业正在试验该技术。在使用或探索 AI 的划清企业中,59% 的决策界限企业在过去两年中加快了投资和推广速度。结果是企业利用智能工具得出(据称)准确答案的 AI 决策能力有所提升 。亿华云
然而,该何快速采用也引发了一个问题 :如果人工智能做出错误选择,划清谁该负责?决策界限错在 IT 团队 ?高管 ?人工智能模型构建者 ?还是设备制造商 ?
在本文中 ,我们将探索不断发展的企业人工智能世界,并根据当前用例重新审视上述引言:公司是该何否仍然需要人类参与 ,还是可以由人工智能来做出决定 ?
正确做法:人工智能在哪些方面改善了业务成果DEGI 首席顾问兼 ISACA 工作趋势小组成员 Guy Pearce 从事人工智能研究已有 30 多年 。“起初 ,人工智能是象征性的 ,”他说,“现在它是服务器租用统计性的。人工智能是算法和模型,可以处理数据并随着时间的推移提高业务绩效 。”
IBM 最新发布的《AI 在行动》报告中的数据显示了这一转变的影响 。三分之二的领导者表示,AI 推动了收入增长率超过 25%,72% 的领导者表示 ,高管层与 IT 领导层在 AI 成熟道路上的免费模板下一步行动上意见完全一致 。
随着人们对人工智能的信心不断增长,企业正在实施智能工具来改善业务成果 。例如,财富管理公司Consult Venture Partners 部署了 AIda AI,这是一款对话式数字人工智能礼宾服务 ,它使用 IBM Watsonx 助手技术来回答潜在客户的问题 ,而无需人工代理 。
结果不言而喻:Alda AI 正确回答了 92% 的查询,47% 的查询促成了网络研讨会注册 ,39% 的建站模板查询转化为潜在客户。
偏离目标 :如果人工智能犯了错误会发生什么?92% 对于 Alda AI 来说是一个令人印象深刻的成就 。但要注意的是,它仍然有 8% 的时间是错误的 。那么 ,当 AI 犯错时会发生什么呢?
对于皮尔斯来说 ,这取决于赌注 。
他以一家金融公司利用人工智能评估信用评分并发放贷款为例。这些决策的高防服务器结果风险相对较低 。在最好的情况下,人工智能会批准按时全额偿还的贷款 。在最坏的情况下,借款人违约,公司需要采取法律行动。虽然不方便,但负面结果远远超过了潜在的积极影响。
“说到高风险 ,”皮尔斯说 ,“看看医疗行业 。假设我们使用人工智能来解决等待时间的源码下载问题。我们是否有足够的数据来确保患者按照正确的顺序就诊 ?如果我们做错了怎么办 ?结果可能是死亡。”
因此 ,人工智能如何用于决策,很大程度上取决于它所做出的决策是什么 ,以及这些决策如何影响做出决策的公司和受决策影响的人。
在某些情况下,即使是最坏的情况也只会带来一点不便。但在另一些情况下,其结果可能会造成重大损害。
承担责任 :如果人工智能犯了错误,谁该负责 ?2024 年 4 月 ,一辆处于“全自动驾驶”模式的特斯拉汽车撞死了一名摩托车手 。尽管需要驾驶员主动监督,但该车司机承认在事故发生前一直在看手机 。
那么谁该承担责任 ?司机显然是最佳人选,他因交通杀人罪被捕。
但这并不是追究责任的唯一途径 。特斯拉也应该承担一定责任 ,因为该公司的人工智能算法未能发现受害者。责任也可以归咎于国家公路交通安全管理局 (NHTSA) 等管理机构。也许他们的测试不够严格或完整。
甚至有人认为,特斯拉人工智能的创造者应该为发布可能致命的代码承担责任 。
这就是人工智能决策的悖论 :是某个人犯了错,还是所有人都犯了错?“如果你把所有应该承担责任的利益相关者聚集在一起,那么责任在哪里?”皮尔斯问道。“是高管层?还是整个团队?如果责任遍布整个组织,那么每个人都不会坐牢。最终,共同承担责任往往会导致没有责任。”
划清界限 :人工智能的终点在哪里?那么,组织应该在哪里划定界限呢?人工智能洞察力何时让位于人类决策 ?
有三个考虑因素至关重要:道德 、风险和信任 。
“当涉及到道德困境时 ,”皮尔斯说,“人工智能无法解决 。”这是因为智能工具自然会寻求最有效的途径,而不是最道德的途径 。因此 ,任何涉及道德问题或担忧的决定都应包括人类的监督 。
与此同时 ,风险是人工智能的专长。“人工智能擅长风险,”皮尔斯说。“统计模型会给你一个标准误差,让你知道人工智能的建议是具有高还是低的潜在变异性 。”这使得人工智能非常适合基于风险的决策 ,比如金融或保险领域的决策 。
最后,企业需要优先考虑信任 。“人们对机构的信任度正在下降 ,”皮尔斯说。“许多公民不相信他们分享的数据被以值得信赖的方式使用 。”
例如,根据《GDPR》 ,公司需要对数据收集和处理保持透明,并让公民有机会选择退出。为了增强人们对使用人工智能的信任,组织应该清楚地说明他们使用人工智能的方式和原因,并(在可能的情况下)允许客户和客户选择退出人工智能驱动的流程。
决策,决策人工智能应该用于管理决策吗?也许吧。它会被用来做出一些决策吗 ?几乎可以肯定 。人工智能的吸引力——它能够捕获、关联和分析多个数据集并提供新的见解——使其成为企业简化运营和降低成本的有力工具 。
不太清楚的是 ,向管理层决策的转变将如何影响问责制 。皮尔斯表示 ,目前的情况造成了这一领域的“界限模糊”;立法还没有跟上人工智能使用率的提高。
为了确保符合道德原则 、降低错误选择的风险并赢得利益相关者和客户的信任 ,企业最好让人类参与其中 。也许这意味着在人工智能采取行动之前需要得到员工的直接批准。也许这意味着偶尔要审查和评估人工智能的决策结果。
但无论企业选择哪种方法 ,核心信息始终不变:在人工智能驱动的决策方面,没有固定的界限。这是一个不断变化的目标,由可能的风险 、潜在的回报和可能的结果决定。
Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“商站动力”。http://www.noorid.com/news/651e599343.html
相关文章
50万刀?2024年薪酬最高的五个网络安全职位
物联网在传统网络安全职位薪酬体系中,处于金字塔顶端的是CISO、网络安全总监、信息安全经理、高级软件安全工程师、IT安全架构师等。根据企业规模和收入的不同,这些北美地区)安全岗位的中位数薪酬大约在9-23万 ...
【物联网】
阅读更多Docker容器挖矿应急实例
物联网01、概述很多开源组件封装成容器镜像进行容器化部署在提高应用部署效率和管理便捷性的同时,也带来了一些安全挑战。一旦开源系统出现安全漏洞,基于资产测绘就很容易关联到开源组件,可能导致被批量利用。在本文中 ...
【物联网】
阅读更多AI新能量!FortiGate NGFW面向数据中心全面集成FortiGuard AI 安全服务
物联网企业IT技术正在以惊人的速度发展,转型最大的领域之一是下一代防火墙NGFW)市场。如今,混合云、多云、边缘等多种基础设施形态共存,已经成为大部分企业的常态,不断扩张的攻击面需要不同形态防火墙的安全防护 ...
【物联网】
阅读更多
热门文章
最新文章
友情链接
- 数据中心在冷却、成本和二氧化碳减排方面均未达到目标
- 微软紧急修复高危蠕虫级 RCE 漏洞,威胁全网 Windows 系统
- 戴尔PowerEdge以高性能计算 为奥运健儿保驾护航
- 苹果6s升级iOS11的体验(以苹果6s为例,探索iOS11的新特性和性能提升)
- 618风控战升级,瑞数信息“动态安全+AI”利剑出鞘
- 技嘉降BIOS教程(教你轻松降级技嘉BIOS,解决电脑问题)
- 从零开始学会制作Excel表格(一步步教你制作Excel表格,轻松应对工作中的数据处理)
- 戴尔PowerEdge服务器 可轻松满足AI深度学习和高级计算等工作负载
- 苹果6s搭载iOS10.3.1
- W7手动还原系统教程(一步步教您如何使用W7手动还原系统,保护和修复您的计算机) 网站建设企业服务器香港物理机云服务器亿华云源码库b2b信息平台