与AI助手交互的挑战
现在让我们假设亚马逊设法创建了一个可以“探索世界”的 Alexa 机器人,并且拥有一个可以在大多数时间以可接受的准确度导航不同环境的 AI,并且只会时不时地犯愚蠢的错误。
下一个问题是,这个机器人应该做什么?
目前,Alexa 拥有数以万计的技能,但其中大部分都是简单的任务,例如播放音乐、回答查询和与智能家居设备交互。这些是您可以从坐在桌子上的无生命物体所期望的那种东西。
但当 Alexa 逃离 Echo 智能音箱的外壳并找到自己的身体时,我们的期望肯定会改变。我们希望我们的 AI 助手能够表现出类人的行为和智能。我们期望他们拥有许多我们认为理所当然的认知技能。
需要明确的是,人工智能助手已经在努力执行需要多个步骤的任务。其中一些问题是由于纯语音界面的限制。例如,智能音箱在帮助用户在选择时浏览和选择不同选项方面非常有限。他们也不擅长在多个步骤之间来回切换。这就是为什么播放音乐和设置计时器等任务仍然是智能扬声器更受欢迎的用例。
但数字助理更大的问题是当代人工智能在理解和处理人类语言方面的局限性。深度学习和神经网络的进步在自动语音识别和自然语言处理方面取得了突破。人工智能现在比以往任何时候都更擅长将语音转换为文本并将文本映射到命令。
但人工智能仍在努力理解单词的上下文和含义。最复杂的语言处理 AI 算法的核心仍然是统计数据。您的智能扬声器将能够响应“明天天气如何?”的不同变化。“星期一的天气怎么样?” 和“下周会下雨吗?” 但这仅仅是因为它已经看到了数千个类似的句子以及它们必须执行的相应功能。它不了解天气、下雨和工作日的概念。
这就是为什么如果你在向你的 AI 助手发出语音命令时突然分心,然后说:“Alexa,天气怎么样……嗯……让我看看……星期一——别等了,星期二?” 您的智能扬声器将无法响应。但对于人类来说,这将是一个明智的选择。
给 Alexa 一个身体、四肢和眼睛来“体验”这个世界,也许它就能消除用户体验中的一些困惑。但语言理解问题不会消失。同时,我们倾向于将任何行为或看起来像人类的东西拟人化。这意味着我们对人工智能助手的期望只会在他们进入他们的机器人外壳时增加,特别是因为我们将花费更多的钱来购买它们。
但很明显的是,人工智能和人类智能之间有着天壤之别,无论 Alexa 多么像人类,它都无法满足我们的期望。