物理经验是人工智能良心发展的必要条件吗
从丘奇兰博士的书(以及其他关于生物神经网络的研究)中可以明显看出,身体经验和约束在人类和动物的智力发展中发挥着重要作用,进而推论良知。
但是今天,当我们谈到人工智能时,我们谈论的主要是人工神经网络等软件架构。今天的人工智能主要是在计算机和服务器上运行并处理通过其他方式获得的数据的无实体代码行。物理体验和约束是否会成为真正智能的人工智能发展的必要条件,它也可以理解和遵守人类社会的道德规则和规范?
“当机器的解剖结构与大脑的解剖结构非常不同时,很难知道行为的灵活程度,”丘奇兰博士在我们的谈话中说。“就生物系统而言,奖励系统、强化学习系统绝对是至关重要的。正面和负面奖励的感觉对于生物体了解环境至关重要。在人工神经网络的情况下,这可能不是真的。我们只是不知道。”
她还指出,我们仍然不知道大脑是如何思考的。“如果我们明白这一点,我们可能不需要在人工大脑中完全复制生物大脑的每一个特征,以获得一些相同的行为,”她补充道。
Churchland 提醒说,虽然最初人工智能社区在很大程度上拒绝了神经网络,但当它们的计算要求得到满足时,它们最终证明是非常有效的。虽然与人脑相比,当前的神经网络智能有限,但我们未来可能会遇到惊喜。
“在这个阶段我们确实知道的一件事是,具有皮层、奖励系统和皮层下结构的哺乳动物可以在没有大量数据的情况下学习和概括,”她说。“目前,人工神经网络可能非常擅长面部分类,而对哺乳动物进行分类则无望。那可能只是一个数字问题。
“如果你是一名工程师,并且想要获得一些效果,请尝试各种方法。也许你确实必须有情绪之类的东西,也许你可以将它构建到你的人工神经网络中。”
我们是否需要在 AI 中复制大脑的细微物理差异?
我从《良心》中得出的结论之一是,人类通常会与社会的社会规范保持一致,他们有时也会挑战他们。每个人的大脑独特的物理结构、我们从父母那里继承的基因以及我们在生活中获得的后来的经历造成了微妙的差异,使我们能够提出新的规范和想法,有时甚至违背先前建立的规范和想法作为规则和法律。
但人工智能备受吹捧的特性之一是其统一的可重复性。创建 AI 算法时,您可以将其复制无数次,并将其部署到任意数量的设备和机器中。它们都将与它们的神经网络的最后一个参数值相同。现在的问题是,当所有人工智能都平等时,它们的社会行为是否会保持静止,并且缺乏推动人类社会社会和行为进步动态的细微差异?
“除非我们对生物大脑的工作方式有更深入的了解,否则真的很难回答这个问题,”丘奇兰说。“我们知道,为了从神经网络中获得复杂的结果,网络不一定要有湿的东西,也不一定要有线粒体、核糖体、蛋白质和膜。还有多少不是必须的?我们不知道。
“没有数据,你只是另一个有意见的人,我没有数据告诉我你必须模仿强化学习系统中的某些特定电路才能拥有智能网络。
“工程师会尝试看看什么是有效的。”
关于人类良知,我们还没有学到很多,更何况它是否以及如何适用于高度智能的机器。“我们并不确切地知道大脑在学习倒立时的平衡时会做什么。但随着时间的推移,我们掌握了窍门,”丘奇兰德在《良心》中写道。“在更大程度上,我们不知道大脑在学习在复杂的社会世界中寻找平衡时会做什么。”
但随着我们继续观察和学习大脑的秘密,希望我们能够更好地创造出为全人类服务的人工智能。