企业发展指南
箭头

对人工智能的偏见对业务增长有实际影响。这就是为什么这个问题需要解决的原因。

随着全球各地的组织意识到人工智能的价值,也越来越需要承认这些障碍,并努力弥补它们,以最大限度地发挥这项技术的影响。人工智能专家分享了他们的想法。

突出了

  • “人工智能有着巨大的潜力,预计将是我们一生中最大的经济机遇。——吉纳维芙·史密斯
  • “人的参与非常重要,因为偏见可能在任何阶段引入。——苏翰书
  • “你越接近逻辑和事实,这种偏见就越容易消退。——杰夫·卡瓦诺
  • “企业正在认识到,这些系统可能会对声誉造成巨大损害和风险。——吉纳维芙·史密斯

人工智能(AI)可以改变公司的运营方式,在过去几年里,该技术在各行业获得了显著的牵引力。

企业正在寻找将人工智能纳入自动化流程的方法,使流程更高效,专注于创新,并为业务带来显著好处。

普华永道(PwC)的一份报告显示,人工智能可能为全球经济贡献近15.7万亿美元,这可能是一个巨大的机遇。

本质上,这是一个巨大的机会。

加州大学伯克利分校哈斯商学院公平、性别与领导力中心副主任吉纳维芙•史密斯表示:“人工智能具有巨大潜力,预计将成为我们一生中最大的经济机遇。”

ai可以贡献 15.7万亿美元 到2030年的全球经济

资料来源:AI Playbook中的PWC /缓解偏见

然而,她指出,当商业领袖将与人工智能打交道时,他们需要使自己具备应对它可能带来的挑战的能力。

人工智能的偏见——它的起源

有人可能想知道,使用人工智能等高级技术会面临什么样的挑战。

似乎有不少这样的例子。

因某人属于某一群体而被拒绝的贷款或抵押。有些人可能会因为自己的性别而被拒之门外。

这些以及许多现实生活中的例子都指向了人工智能中的偏见,这些偏见可能会对社会的运作方式产生影响。

这些偏见称,专家表示,他们的起源回到人类。

“作为人类,我们一直都有偏见。事实上,我们的大脑天生就有偏见,”吉纳维芙说,她将偏见定义为导致歧视性行为的判断的认知捷径。

“如果你看偏见,定义是......倾向或倾向,或者可能偏见,朝向或反对,某事或某人,”她说。

“我们作为人类一直经历偏见。事实上,我们的大脑被有线被偏见,“Genevieve Smith说。

这些人类偏差与在实施AI系统的实施中的作业的那些直接相关。

为了在伯克利哈斯·哈斯州的股权,性别和领导地位找到答案,对人工智能的研究 - 缓解偏见的答案,对性别和领导者,并提出了股权:股权流畅的领导册。阅读更多

剧本说明了偏见是如何渗透到人工智能系统的,组织应该如何注意影响,以及可能的解决方案,以从技术中获得最大的利益。

在这方面,专注于负责任的AI扮演着重要的角色。

印孚瑟斯知识研究所(Infosys Knowledge Institute)全球主管杰夫•卡瓦诺(Jeff Kavanaugh)表示:“人工智能伦理的目标是解释技术如何以及为何做出某些往往困难的决定。”raybet雷竞app下载

“负责任的人工智能意味着公平、负责任,构建可解释、可解释的系统,以及能够以可重复、一致的方式产生结果的系统,”‎Infosys高级首席技术架构师Sudhanshu Hate表示。

在中心保持数据

理解和理解人工智能系统是自动化判断的关键,它们从数据中学习来做出决定和预测。

AI系统不仅可以从人类选择中学习,以及开发AI系统的人的角度和知识,但它也从如何操作和使用。

“我们生活在一个充满歧视、不平等和偏见的世界。这可以反映到AI系统中。所以,谁在开发这些人工智能系统以及它们在哪里开发真的很重要。”

“我们作为人类一直经历偏见。事实上,我们的大脑被有线被偏见,“Genevieve Smith说。

她说,在预测和决策中使用AI可以减少人类主体性,但它也可以嵌入偏见导致某些人口某些子集的不准确或歧视性预测和输出。

Sudhanshu说,解决办法在于从选择问题开始,在每一步都处理数据。

“我们选择的问题应该没有偏见。然后,当你开始创建数据集时,为了训练你的人工智能系统,不同班级的数据应该得到很好的平衡,”他补充说,数据不应该有利于任何一个班级。

“第三是选择正确的算法。”

IKI的Jeff建议组织尽可能多地在数据和更多的逻辑上投资。

“你越靠近逻辑和事实,偏差往往越来越多,”杰夫说明。

“人类的参与非常重要,因为偏见可能在任何阶段引入,”Sudhanshu Hate指出。

保持人类在循环中

专家们认为,让一个人参与循环对于确保偏见不会渗透到人工智能系统至关重要。

“人的参与非常重要,因为偏见可能在任何阶段被引入,”Sudhanshu指出,并补充说,在问题的选择、数据集的创建、数据的收集和数据的审计等各个阶段,都需要强有力的人的参与。

Jeff指出,即使流程处于控制之下,也总是需要人工治理或监督。

据苏汉书说,数据的来源、数据使用的条件以及系统在什么条件下可能不起作用也很重要。最后,人工智能系统生成的结果也需要经过人类的验证。

“因此,系统的行为表现得根据所制定的设计原则,”他表示,补充说,这些学习应该被送回系统。

42%

2019年datarbot的一份报告发现,42%目前使用/生产人工智能系统的机构“非常”或“极度”担心媒体对有偏见的人工智能的报道可能造成的声誉损害。

来源:PwC/Bias in AI Playbook

科技能减少偏见吗?

“技术扮演着重要的角色,”Sudhanshu说,并补充说应该确保用于训练模型的数据应该得到很好的表现,而技术可以在其中发挥作用。

“有一些技术可以查看数据集中的数据表示,”Sudhanshu说。他认为,数据质量,以及是否所有类都被表示也是重要的参数,同时确保AI模型在AI生命周期中的可解释性。

有一些框架可以帮助你解释模型的输出。这对于证明一个系统产生的结果是非常非常有用的。”

XAI必须在整个AI生命周期中使用

问题selection-definition

来源:ICETS

偏见及其对组织的影响

虽然世界各地的机构都在认识到人工智能的力量,但重要的是,它们首先要承认系统中存在偏见,因为由此产生的成本是巨大的。

Sudhanshu建议存在很多与技术相关的品牌价值和社会价值,并且当AI实施错过了这项标记时,有一些情况,导致品牌产生负面影响。

吉纳维芙表示同意。

“偏见的AI系统可以为生产和或使用它们的公司产生非常大的声誉成本,”Genevieve说,同时增加到可能对破坏AI系统可能有可能进行损害控制,失去消费者或甚至产生影响未来的市场机会。

“公司正在认识到,这些系统可能会对声誉造成巨大损害和风险,”吉纳维芙·史密斯(Genevieve Smith)说。

在向美国证券交易委员会的报告中,Microsoft凭借偏见的AI系统,Microsoft遭到偏见的声誉危害或责任。

“所以,有些东西出现了。企业正在认识到,这些体系可能会对声誉造成巨大损害和风险。

此外,吉纳维芙在谈到员工对道德实践日益增长的要求时指出,外部压力并不全是原因。

“AI对内部冲突或不必要的媒体关注具有巨大的影响,可能会损害企业声誉和品牌价值,”Genevieve,补充说,“另一方面,通过具有更多道德方法,算法等,(组织)可以吸引并保持更好的人才。“

“(组织)必须了解形势及其复杂性。因此,所有利益相关者都应该意识到人工智能的道德性。”

每一步都解决偏见

组织需要有意识地解决各种偏见,从根源到偏见在后期渗入的情况。

“(组织)必须了解形势及其复杂性。因此,所有利益攸关方都应该有道德人工智能的意识。”

Genevieve表明,商业领袖应该培养共同责任感,并思考其组织中的激励结构和动力。

尽管道德考虑(这可能需要放慢脚步)和率先上市可能存在紧张关系,但对商业领袖来说,优先考虑并解决诸如人工智能偏见等问题很重要,这些问题具有重要的商业意义。

通过解决AI系统在开发和管理过程中的偏见,企业可以……

  • 减轻风险
  • 保持强大的品牌声誉
  • 有一个优越的价值主张
  • 提前终止立法
  • 在快节奏的行业中成为有竞争力的领导者

来源:AI Playbook中的偏见

“(道德考虑和率先进入市场)确实可能存在分歧。商业领袖在更新激励机制方面发挥着重要作用,从而更鼓励人们停下来思考这些道德问题,”吉纳维芙说。

“商业领袖也有机会制定负责任的、合乎道德的人工智能原则和方法,从而决定负责任地部署这些技术意味着什么,并思考什么是‘道德’。”

Genevieve还提到了与新技术治理保持一致的重要性,以便更好地应对日益严峻的监管形势,同时保持与自身企业价值观的一致。

“因为这是非常不断发展的领域,企业对监管世界发生的事情非常好看,这是非常好的看法,”苏海湖增加。

吉纳维芙说:“谁在开发这些人工智能系统、在哪里开发这些系统真的很重要。”

问题如-在他们的行业有什么不同的规则?那么,他们应该避免什么呢?——应该加以处理,这样它们就不会进入规定的错误一侧,Sudhanshu说。

“这些都是为了考虑公司治理,董事会对公司的职务表现出色,”Genevieve提到建立AI伦理委员会和道德,并确保负责任的AI原则和代码都是公司的一部分议程至关重要。

除了这些行动,以减轻在公司治理水平的AI系统中的偏见,还有重要的行为来支持各种多学科团队,并启用负责任的AI模型(见图4)。

在算法和AI系统上实现各种和多学科团队。

促进与AI相关的道德文化和责任。

AI模型

实践负责任的数据集开发。

建立政策和实践,使负责任的算法开发。

公司治理与领导

为负责任的人工智能建立公司治理和端到端内部政策,以减少偏见。

利用企业社会责任(CSR)来推进负责任/道德的人工智能和更大的系统变革。

使用您的声音和影响,以推进负责任AI的行业变革和法规。

来源:AI Playbook中的偏见

《苏汉书》还强调,应该有一致的、连贯的原则,每个人都应该能够遵守。

他指出:“还有其他东西,比如使用正确的技术,使用正确的框架,这样就不会在AI生命周期的任何阶段出现偏见。”他补充道,通过适当的步骤,即使偏见确实出现了,也应该被发现并消除。

Jeff补充道:“在知识研究所的研究中,专注于人工智能治理的公司的表现远远超过公司的其他公司。”

然而,Genevieve表示,企业也可以从康复过程中建立正确的流程和步骤。

她表示:“不要盲目地采用这些流程……从一开始就建立这些流程,这对企业真的很有帮助,会带来变革。”

组织有机会解决可能会出现的偏见。

她表示:“做好这一点的企业将取得领先。”

阅读更多+

相关视频

捕捉到的镜头:企业如何驾驭数字颠覆

infytv是您的目的地。调整从数字中断到人才转型的故事,从业务影响到人类影响,从数字Visionaries到行业领导者。当然,它不会全部工作,没有玩!