什么是可解释的人工智能
做出决定的人必须能够解释导致拒绝的流程和信息。但是我们越来越多地将我们的决定委托给人工智能算法,而且在很多情况下,我们不知道这些算法是如何运作的。
解释基于人工智能的决策的困难已成为一个日益严重的问题,尤其是当人工智能在医学、执法、银行和交通等关键领域发挥重要作用时。缺乏对 AI 算法工作原理的了解带来了挑战,尤其是在错误决策可能造成无法弥补的伤害或法规允许个人挑战自动化决策并要求决策者为其行为提供解释的领域。
这个被称为“人工智能黑匣子”的问题促使一些科学家、初创公司和公司寻找方法来创建可解释的人工智能,即解释其决策或接受调查的人工智能。
为什么很难解释 AI 决策?
首先,人工智能是一个负载术语,包含许多不同的技术,并不是它的所有子集都存在黑盒问题。我们特别关注的是深度学习和神经网络,这是人工智能的一个分支,在过去几年中变得非常流行。
神经网络是以人脑功能命名的软件结构——尽管我们知道它们与人脑的工作方式有着根本的不同。与人类程序员精心编写应用程序的所有规则的传统软件不同,神经网络和深度学习算法获得相关数据集,然后自行创建规则。训练神经网络最基本的方法是为其提供一组标记示例,这一过程称为“监督学习”。然后找到这些示例之间的共同模式和相关性,并使用该信息对未标记的示例进行分类。
例如,当你给一个神经网络一百万张不同猫种的标记图片时,它会通过层层人工神经元运行这些图像,并“学习”猫图片的共同特征。然后它将能够在它以前从未见过的新照片中发现猫。这种方法在难以用经典规则定义的任务中非常有效,例如图像分类和语音识别。
然而,由于神经网络有效地创建了自己的规则,我们无法确定其内部运作的细节。例如,人类和神经网络都可能说下图中的动物是猫,但原因不同。
人类会告诉你,猫有尖耳朵、三角形鼻子、胡须、毛茸茸的尾巴……神经网络无法理解猫的不同身体部位。它只能高度自信地判断这些图片包含猫,因为它们像素的结构和颜色类似于它之前看到的数百万张猫图片。
这就是神经网络不透明的根本原因。它们是接收输入并产生输出而不给出解释的黑匣子。这一切都很好,而一切正常。但是当错误发生时,事情就会变得有问题——而且错误确实会发生。