随着AI系统在关键决策系统中的应用越来越多,这些系统所呈现的结果变得越来越重要。在最近的一些例子中,结果是错误的,并影响了重要的人类问题,其中一些例子是人工智能招聘算法被发现对特定的种族和性别有偏见。黑人被告的误判率是白人被告的两倍。一家汽车保险公司默认将25岁以下的男性列为鲁莽司机。
由于系统失灵、由此引发的诉讼和其他社会影响,人工智能开始吸引许多负面媒体的关注,以至于如今的监管机构、官方机构和普通用户都在寻求基于人工智能的系统做出的每一个决定都变得越来越透明。在美国,保险公司需要解释他们的费率和承保决定,而欧盟在《一般数据保护条例》中引入了解释的权利。
所有上述场景都需要工具和技术来让人工智能系统更加透明和可理解。
以下是运行道德AI系统所需的一些重要原则。为了确保AI模型的可信度和可靠性,坚持一些是至关重要的关键原则:
许多从业者会犯错误可辩解的AI(新品)仅在输出阶段应用;然而,XAI的角色贯穿于AI的整个生命周期。它发挥重要作用的关键阶段如下。
因此,人工智能系统需要一致和持续的治理,以使它们在各种情况下易于理解和弹性,企业必须确保作为人工智能采用和成熟周期的一部分。