人工智能缺乏先天能力
2022年1月4日整理发布:与“人工智能”一词一样,“意义”和“理解”的概念也难以定义和衡量。因此,研讨会的参与者并没有试图给这些术语一个正式的定义,而是定义了一系列“相关性”,即与我们理解情况的能力密切相关的能力和技能。他们还研究了当前的人工智能系统在多大程度上享有这些能力。
“理解建立在先天核心知识的基础上,”米切尔写道。我们对物理学、重力、物体持久性和因果关系的基本理解使我们能够追踪物体及其部分之间的关?系,思考反事实和假设情景,并在世界上始终如一地行动。最近的研究表明,直觉物理学和因果模型在我们对视觉场景的理解中起着关键作用,科学家们将其描述为计算机视觉“暗物质”的关键组成部分之一。
米切尔写道,除了物理学,人类还具有“与生俱来的或早期发展起来的直觉心理学”,这使我们能够分析、同情和与其他社会人交流。米切尔还谈到了“元认知”,即“解释和预测我们自己的思维过程和决定,并将它们映射到其他人的思维过程”的能力。这些能力对于我们了解我们拥有的信息范围以及它与解决问题的相关性至关重要。它还使我们能够将自己置于 Aurelie 的位置,并想象她看着 Aimable 对 Pomponette 进行猛烈抨击时的感受。
神经网络无法推断
与人类相比,深度神经网络需要更多的数据来学习新事物。这是因为,虽然神经网络在训练期间看到的数据点之间进行插值方面很有效,但它们在处理训练数据未涵盖的情况时却很糟糕。米切尔写道,另一方面,人类善于将他们的知识和经验外推到以前看不见的情况,因为他们“构建了抽象的表征”。抽象是人类思维的强大工具。正是它让我们能够提取我们在本文开头看到的电影节选的高级含义,并将它们与我们已经知道的事物进行比较。
与具有不同训练和部署过程的神经网络不同,人脑是一个主动学习机器,在其整个生命周期中不断调整其知识。“感知、学习和推理是随着时间动态展开的主动过程,涉及来自上下文和先验知识的持续反馈,并且在很大程度上是无监督的,”米切尔写道。
人工智能和神经科学界在人类思维如何有效地获取知识方面存在分歧。许多科学家认为,大脑预先配备了许多功能。这些我们通常认为理所当然的与生俱来的能力使我们能够理解以前从未见过的情况,并通过很少的例子来学习。其他研究人员断言,与人工神经网络一样,大脑是一个大型插值机,可以学习填补已知数据之间的空白,我们需要发现秘密算法,使我们能够有效地从世界中提取意义。
“我认为没有人知道这个问题的答案,”米切尔在书面评论中告诉TechTalks。“我什至不确定这是非此即彼——我们可能在大脑中预先设置了指导我们早期自我监督学习的能力。我们也可能有一些关于世界的预先确定的“事实”,例如如何识别某物是“对象”。”
进化考虑
Santa Fe 研讨会探索的另一个领域是人工智能系统需要有一个身体来体验世界。“对生命系统的理解不是来自孤立的大脑,而是来自大脑和身体在世界中相互作用的不可分割的组合,”米切尔写道,并补充说这一假设的支持者认为,一个没有实体的大脑将无法实现类似人类的理解。
“我认为,如果你问研讨会上的人,对于'具体化'的含义,会有很多不同的意见,”米切尔告诉我。“但它肯定包括以某种形式主动‘感知’世界的能力,强调‘主动’我认为没有人可以说存在一种通用智能所必需的‘具体化’”
进化在塑造每个生物的思想以满足其生理需求方面也发挥了关键作用。“在过去的几十年里,神经科学、心理学和语言学中出现的证据支持身体在思维的几乎所有方面的重要作用,”米切尔写道。例如,虽然黑猩猩显然不如人类聪明,但它们的短期记忆要好得多。同样,松鼠的大脑已经进化到能够记住数以千计的食物藏身处。
这些认知能力已经发展了成千上万代,并与环境反复互动。米切尔在她的论文中观察到:“也许大脑的特定底层结构对于理解来说并不像进化过程本身那样重要,”她补充说,进化方法可能会开辟一条通往人工智能系统中整合意义和理解的道路。
在这方面,人工智能的一个好处是,在模拟环境允许的情况下,它可以快速前进。
理解不是损失函数或基准
机器学习算法旨在优化成本或损失函数。例如,当神经网络接受训练时,它会调整其参数以减少其预测与人类提供的标签之间的差异,这些标签代表了基本事实。圣达菲研究所研讨会的参与者认为,这种解决问题的简单方法不是“理解”的意思。没有单一的指标来衡量理解水平。
米切尔在她的论文中写道,不清楚应该“优化”什么来实现理解的相关性,或者“即使优化本身是要使用的正确框架”。
困扰 AI 社区的另一个问题是专注于优化特定基准和数据集的算法。在过去十年中,出现了许多数据集,其中包含计算机视觉和自然语言处理等领域的数百万个示例。这些数据集允许 AI 研究人员训练他们的算法并测试其准确性和性能。但是,虽然在管理这些数据集方面的辛勤工作值得称道,并且为我们在过去几年中看到的人工智能领域的许多进步做出了很大贡献,但它们也带来了一种创造成就错误印象的文化。
“由于该领域鼓励在特定基准上取得成功,有时研究会过于关注特定基准,而不是更一般的潜在任务,”米切尔在AI 杂志中写道。
当在数据集上得分更高成为目标时,可能会导致不利的结果。例如,2015 年,百度的一组人工智能研究人员在一年一度的计算机视觉竞赛 ImageNet 上作弊,得分高于其他竞争对手。该团队并没有找到一种可以更准确地对图像进行分类的新算法,而是设法找到了一种违反比赛规则的基准游戏方法。
狭义数据集的缺点也成为最近研究的亮点。例如,在 NeurIPS 2019 会议上,麻省理工学院-IBM 沃森人工智能实验室的一组研究人员表明,在 ImageNet 数据集上训练的算法在现实世界中表现不佳,即在不常见的位置和光照条件下发现物体。
“许多使用 ImageNet 发表的论文都专注于对所有
重要的'最新技术'而不是深入了解这些网络实际识别的内容或它们的强大程度,”米切尔写道。
最近,推动开发能够更好地衡量 AI 算法的一般问题解决能力的基准和数据集。在这方面的一个显着努力是由 Keras 创始人 Francois Chollet 开发的抽象推理语料库。ARC 挑战 AI 研究人员开发 AI 算法,该算法可以从数据中提取抽象含义,并学会用很少的例子来执行任务。
“我同意 Chollet 的观点,即解决 ARC 问题所需的那种抽象和类比是智能的核心方面,但在当今的 AI 研究社区中尚未得到充分研究,并且要在我在“崩溃”一文中概述的问题上取得进展意义障碍的论文,我们必须弄清楚如何让机器能够完成这种任务,”米切尔在她对TechTalks 的评论中说。“但即使机器可以解决 ARC 问题,它是否可以使用相同的机制来处理现实世界中的抽象和类比,尤其是在涉及语言的情况下,仍有待观察。”