2月24日很明显CNN识别物体的方式与人类非常不同
但这些差异不仅限于弱泛化和需要更多示例来学习对象。CNNs 对物体的内部表征也与人脑的生物神经网络有很大不同。这如何表现出来?“我可以拍摄一张图像和一点点噪音,CNN 会认为它是完全不同的东西,我几乎看不出它发生了变化。这看起来真的很奇怪,我认为这是 CNN 实际上使用与我们非常不同的信息来识别图像的证据,”Hinton 在 AAAI 会议上的主题演讲中说。
这些稍加修改的图像被称为“对抗样本”,是人工智能社区的热门研究领域。
“这并不是说它是错误的,他们只是以一种非常不同的方式来做这件事,而且他们非常不同的方式在概括的方式上存在一些差异,”Hinton 说。
但许多例子表明,对抗性扰动可能非常危险。当您的图像分类器错误地将熊猫标记为长臂猿时,这一切都既可爱又有趣。但是当自动驾驶汽车的计算机视觉系统没有停车标志时,一个邪恶的黑客绕过了面部识别安全系统,或者谷歌照片将人类标记为大猩猩,那么你就有问题了。
围绕检测对抗性漏洞和创建能够抵御对抗性扰动的强大 AI 系统进行了大量研究。但对抗性的例子也提醒我们:我们的视觉系统经过几代人的进化来处理我们周围的世界,我们也创造了我们的世界来适应我们的视觉系统。因此,只要我们的计算机视觉系统以与人类视觉根本不同的方式工作,它们将是不可预测和不可靠的,除非它们得到激光雷达和雷达测绘等互补技术的支持。