真正的问题不是人工智能而是人
本周,两起事件完美地展示了人类与人工智能近乎精神分裂的关系。首先,《终结者:创世纪》在大银幕上首映,天网的威胁迫在眉睫。其次,一个由科技公司和人工智能研究人员组成的联盟刚刚公布了37 项研究资助,以防止人工智能失控。但是,对于终结者或任何其他以人工智能为中心的科幻小说所描绘的黑暗未来,我们究竟有多远或近?事实证明,我们可能还差得很远。但真正的危险实际上可能并不来自人工智能。毕竟它可能来自人类。
人工意识
毫无疑问,人工智能取得了突飞猛进的发展。我们已经看到它的原理应用于各种产品,从平凡的搜索引擎,到轰动的 Siri,再到荒谬的,比如只需观看 YouTube 视频就可以使 Maro 水平的 AI。但是,尽管这些例子展示了几乎令人恐惧的智慧,但它们与小说中的种族灭绝 AI 仍然相去甚远。这些不只是响应用户输入,尽管它们被描绘成这样开始。他们按照自己的意愿和条件行事,这是我们称为自我意识或意识的属性的属性。
智能不是意识,或者至少在涉及计算机时它们是不同的。人工智能是一个比人工智能更理论化的领域。虽然现在几乎没有人怀疑 AI 是真实的,但关于 AC 是否可能存在的争论仍在继续。一些人认为,能够自主行动,而不必依赖来自人类或其他方面的输入,这太复杂了,无法在软件中复制。意识对终结者的未来天网至关重要。只有意识到自己的存在并能够从中获得自主权的机器才能成为科幻小说经常描绘的对人类的威胁。没有它,那些机器只不过是反派手中的高度智能和高效的工具。
自我保护
虚构的人工智能对手的另一个看似被遗忘的方面是他们坚持的意愿,一种自我保护的本能,也与自我意识有关。人工智能最终只是软件,任何软件,即使是最恶意的软件,最终都可以被删除。在小说中,关闭开关通常是让 AI 陷入杀戮情绪的触发器。它开始认为它比人更好,或者它可以通过消灭它来改善人类。或许,这些结论可以通过纯粹的逻辑得出,但深入思考并再次采取行动的能力可以追溯到有意识。
但即使有这些动机,如果没有生存的愿望,任何人工智能都可能被简单地摧毁。它不会保护自己。它无法判断它的存在是超越人类的必然。当然,类似的东西可以像说“a = 5”一样容易地编程,但这归结为一件事:程序员对人工智能的道德使用。
真正的威胁:人
同样,科幻小说通常会讲述人类如何创造几乎将其消灭的 AI 怪物,但并不是创造 AI 本身的行为会使人类的历史陷入恶性循环。使用这种人工智能才是更紧迫的危险。忘记天网或黑客帝国吧。人工智能掌握在人类手中,归根结底已经足以消灭人类。简而言之,它可能是对人工智能的不负责任,更不用说不道德的使用,最终可能导致未来与终结者一样黑暗甚至更黑暗。
在某种程度上,这就是上述财团未来生命研究所的使命。这些不像亲人类、反人工智能的组织,当然,他们将始终致力于改善人类。该研究所的成员包括从事人工智能工作的公司和员工,如谷歌、微软以及令人惊讶的埃隆马斯克。他们并不阻止人工智能的发展。相反,他们鼓励其负责任的开发和合乎道德的使用。人工智能超越了我们的浏览器或智能手机。有许多项目将人工智能放入机器人和武器中。Future of Life 力图推动人工智能领域走上正道,可以说,为美好社会而发展。它希望避免黑暗 AI 未来的道德陷阱,并将天网的可能性扼杀在萌芽状态。
最后的话
现在开始担心天网的发生可能还为时过早,即使我们的未来会有马斯克的大量承载互联网的卫星。具有自我保护本能的具有自我意识、自主人工智能的时代仍然遥遥无期。但是,无论是在不考虑安全性还是恶意的情况下使用人工智能的未来可能不会那么遥远。未来的杀手级人工智能将由人类创造,这是真的。防止这种情况发生的唯一方法是教人们如何负责任地使用技术。然而,以今天的标准来看,这可能是一项与开发 AI 本身一样复杂甚至更复杂的任务。