人工智能管理

趋势11:将AI伦理作为构建AI系统的基本原则

随着AI系统在关键决策系统中的应用越来越多,这些系统所呈现的结果变得越来越重要。在最近的一些例子中,结果是错误的,并影响了重要的人类问题,其中一些例子是人工智能招聘算法被发现对特定的种族和性别有偏见。黑人被告的误判率是白人被告的两倍。一家汽车保险公司默认将25岁以下的男性列为鲁莽司机。

由于系统失灵、由此引发的诉讼和其他社会影响,人工智能开始吸引许多负面媒体的关注,以至于如今的监管机构、官方机构和普通用户都在寻求基于人工智能的系统做出的每一个决定都变得越来越透明。在美国,保险公司需要解释他们的费率和承保决定,而欧盟在《一般数据保护条例》中引入了解释的权利。

所有上述场景都需要工具和技术来让人工智能系统更加透明和可理解。

以下是运行道德AI系统所需的一些重要原则。为了确保AI模型的可信度和可靠性,坚持一些是至关重要的关键原则:

  • 人类的参与:尽管人工智能模型是在不受人类干扰的情况下独立运行的,但在某些情况下,人类的依赖是必要的。例如,在欺诈检测或涉及执法的情况下,我们需要一些人在循环中监督,不时检查或审查AI模型所做的决定。
  • 偏差检测:无偏数据集是人工智能模型做出可靠、无歧视预测的重要前提。人工智能模型被银行用于信用评分、简历筛选和一些司法系统;然而,人们注意到,在某些情况下,数据集对颜色、年龄和性别有一些固有的偏见。
  • Explainability:可辩解的人工智能当我们谈到合理的预测和特性的重要性时就会出现这种情况。可解释人工智能有助于理解模型是如何思考的,或者它在做出预测时强调给定输入的哪些特征。
  • 再现性:机器学习模型应该在每次给出预测时保持一致,在使用新数据进行测试时不应该失控。

许多从业者会犯错误可辩解的AI(新品)仅在输出阶段应用;然而,XAI的角色贯穿于AI的整个生命周期。它发挥重要作用的关键阶段如下。

AI生命周期中的XAI

AI生命周期中的XAI

因此,人工智能系统需要一致和持续的治理,以使它们在各种情况下易于理解和弹性,企业必须确保作为人工智能采用和成熟周期的一部分。

订阅

要了解最新的技术和行业趋势,请订阅印孚瑟斯知识研究所的出版物raybet雷竞app下载

印孚瑟斯TechCompass