人工智能无法复制人类思维
2022年2月8日整理发布:“[T] 思想的实际内容是极其复杂的,无法挽回;我们应该停止尝试寻找思考思维内容的简单方法,例如思考空间、物体、多个代理或对称性的简单方法所有这些都是任意的、本质上复杂的外部世界的一部分,”萨顿说.
关于我们是否能够创造出能够像人脑一样运作的人工智能,存在很多争论。在他的帖子中,萨顿驳斥了这些观点,强调计算机应该创造自己的智能,而不是模仿我们的智能。“我们希望人工智能代理能够像我们一样发现,而不是包含我们发现的东西,”他说。
支持萨顿的论点有一个历史先例。在创建工具时,我们经常从大自然中获得灵感,但最终选择了不同的路线。一个有趣的例子是飞机,它的灵感来自鸟类,但以不同的方式工作。神经网络和深度学习也从人脑的一些工作中获取线索,但也以根本不同的方式工作。
人工智能的分歧
Rich Sutton 是强化学习的长期支持者,强化学习是帮助 AI 征服古代围棋游戏的深度学习的子集。因此,很自然地期望萨顿对这种人工智能的融合有偏见。
但并不是每个人都赞同萨顿对人工智能当前状态的看法。萨顿发表帖子几天后,人工智能和机器人技术的先驱罗德尼·布鲁克斯(Rodney Brooks)写了一篇题为“更好的一课”的文章,其中他揭穿了萨顿提出的一些主张,并概述了深度学习模型的一些基本缺陷受苦。整篇文章很短,值得一读,但以下是布鲁克斯谈到的一些关键思想:
神经网络缺乏对图像上下文的理解,使它们容易犯愚蠢和危险的错误。
深度学习并没有消除对人类知识和逻辑的需求。它只是将人类的脑力劳动转移到设计网络而不是硬编码逻辑上。
训练深度学习模型所需的数据量和计算量使得个人和小型组织很难充分利用它们。
摩尔定律的放缓正在为 Sutton 提出的我们应该利用更大的计算能力来增强 AI 模型的前提创造一个主要障碍。此外,更多的计算能力意味着更多的功耗和更大的碳足迹。
专用的 AI 硬件有助于弥补运行深度学习模型所需的计算能力不足,但也使 AI 模型变得非常僵化。工程师将被迫为每个新的 AI 应用程序创建专用硬件,而不是使用通用硬件来开发和运行 AI 模型。即便如此,我们也需要人类知识来设计和创建这些硬件。
深度学习有许多批评者,包括纽约大学教授和加里·马库斯,他撰写了深度学习的深入批判性评价,并定期撰写有关神经网络和联结主义 AI 模型的缺点的文章。
许多 AI 专家和科学家经常指出,深度学习具有明显的局限性:
深度学习算法需要大量数据来执行最简单的任务。
深度学习算法擅长执行特定任务,但不擅长概括其知识并将其能力带到其他领域。一个新的问题域通常需要一个新的模型和从头开始的训练。
神经网络是深度学习算法的底层结构,很难理解。通常,即使是深度学习算法的创造者也很难理解他们的内部工作原理。
需要明确的是,这并不是深度学习和人工智能当前状态的定论。事实上,其他人工智能专家揭穿了对深度学习的批评。关于深度学习模型的局限性和能力的讨论经常引发关于创建高效人工智能的最佳途径之间的激烈争论。
但许多专家一致认为,人工智能需要结合许多不同的技术和方法,包括神经网络、神经科学和 GOFAI。
“我认为要吸取的一个更好的教训是,我们必须考虑任何解决方案的总成本,而且到目前为止,它们都需要大量的人类智慧。说一种特定的解决方案风格最大限度地减少了所需的特定类型的人类独创性,而没有考虑到它迫使人类独创性(和碳足迹)被消耗的所有其他地方,这是一种非常短视的世界观,”布鲁克斯总结道在他的帖子中。