2月25日人工智能系统的技术稳健性和安全性
欧共体专家表示,人工智能系统必须“可靠地按预期运行,同时最大限度地减少无意和意外伤害,并防止对人类及其环境造成不可接受的伤害”。
当前人工智能技术最大的担忧之一是对抗样本的威胁。对抗性示例通过对人类几乎不可见的输入数据进行微小更改来操纵 AI 系统的行为。这主要是因为人工智能算法的工作方式与人脑根本不同。
对抗性示例可能会偶然发生,例如人工智能系统将沙丘误认为是裸体。但它们也可以被武器化为针对关键人工智能系统的有害对抗性攻击。例如,恶意行为者可以改变停车标志的颜色和外观,这种方式不会被人类注意到,但会导致自动驾驶汽车忽略它并造成安全威胁。
对抗性攻击尤其是深度学习的关注点,深度学习是一种流行的 AI 组合,通过检查成千上万个示例来发展其行为。
已经有一些努力来构建能够抵御对抗性攻击的强大人工智能系统。AutoZOOM 是由 MIT-IBM Watson AI Lab 的研究人员开发的一种方法,可帮助检测 AI 系统中的对抗性漏洞。
EC 文件还?建议人工智能系统应该能够从机器学习退回到基于规则的系统,或者要求人类进行干预。
由于机器学习模型基于统计数据,因此应该清楚系统的准确性。“当无法避免偶尔的不准确预测时,系统可以指示这些错误的可能性有多大,”委员会的道德准则指出。这意味着最终用户应该了解他们正在使用的 AI 系统的置信度和一般可靠性。