创建可解释AI的不同方法
可解释的人工智能仍然是一个不断发展的领域,科学家们正试图找到不同的方法来使神经网络可解释,而不会影响其性能。我们还没有看到标准的出现,但是有几个有趣的举措旨在创建可解释的 AI 并跟踪自动决策的定义属性的来源。
其中突出的是国防高级研究计划局的可解释人工智能项目(XAI)。DARPA 是国防部的研究机构,正在探索可解释的人工智能,作为其在各个领域增加自动化工具使用的一部分。
还有一系列人工智能初创公司和大型科技公司正在研究这个主题。正如我们在这些页面中所讨论的,打开黑匣子的盖子将是使 AI 实现下一个大飞跃的关键组成部分。
虽然这里讨论可解释人工智能的具体方法在技术上有点涉及,但从高层次的角度来看,基本上有两种解释人工智能决策的方法。
第一个是两者中更简单、更容易实现的,与在 AI 决策发生后进行调查有关。例如,这意味着如果神经网络错误地将沙漠沙丘的图像分类为裸体图片,应用程序的操作员应该能够调查该错误。已经有一些方法可以进行这种决策后调查。继续看图像分类示例,当您向神经网络提供输入时,它通常会返回一个类别列表,每个类别都有一个置信度分数。科学家可以通过对输入进行微小更改并观察这些更改如何影响输出类别的权重来研究图像的不同部分如何影响神经网络的决策。
可以帮助自动化此过程的方法之一是生成对抗网络 (GAN),它使两个神经网络相互对抗以最大化一种结果。例如,GAN 可以开始以非常高的速度摆弄图像,并生成图像的哪些区域影响哪个输出类别的地图。
虽然有效,但第一种方法仍然没有看到 AI 黑匣子的内部,仍然从外部解决问题。此外,在某些情况下,我们想知道 AI 在做出决定之前是如何工作的,而不是之后。
第二种更具挑战性的可解释 AI 方法是创建可以阐明神经网络内部工作原理的机制。这对于您希望在将神经网络部署到现实世界之前调查其潜在漏洞(例如自动驾驶汽车中使用的计算机视觉技术)的领域至关重要。
问题在于,当让神经网络创建自己的复杂连接时,它们是最好的优化。一旦您尝试分解复杂性以帮助人类分析师探索其机制,您就有可能损害其速度和效率。
这是一个有趣的研究领域,许多努力都投入到 AI 算法中,以便能够自我解释自己的决策过程。我们还没有在这个领域看到一些显着的结果,我们可能离能够解释其内部机制的 AI 算法还有几年(或几十年)的时间。
在那之前,我们必须弄清楚如何创造技术,为这个与我们生活的各个方面越来越相关的行业带来更多的透明度、可解释性和问责制。