Facebook AI 研究人员週三宣布推出 Blender,这是一套最先进的开放原始码聊天机器人模型。这些新模型应该比以前迭代的模型「更人性化」,并提供更稳健的对话。
根据初步迹象显示,它似乎和 Google 和 Microsoft 的竞争机器人一样好,甚至更好。但无论从什幺标準或面向来看,在此并不想讨论Blender在聊天机器人上有了什幺样的飞跃式发展。因为从本质上讲,Facebook 所做的就是教会 Blender 聊天机器人比其他竞争机器人更会撒谎。
会这幺认为的原因是,Facebook 收集了大量资讯,并对 AI 进行训练。Blender 聊天机器人属于开放领域型(Open-domain),这意味着它们不只是被训练回答如同你在网站上看到的各种特定问题。这些机器人理论上反而能参与任何话题的对话。
根据该公司的部落格贴文指出:
这是聊天机器人第一次学会在自然的 14 轮对话流程中融合多种对话技巧,包括角色扮演的能力、几乎涉及所有话题的讨论能力,以及表现出同理心的能力。
我们的新秘方不仅包含多达 94 亿个参数的大规模神经网路模型(比现有最大的系统高出 3.6 倍),而且还包含了同样重要的融合技术和细节生成技术。
就像 OpenAI 好到让人惊悚的文章产成器 GPT-2 一样,Blender 所使用的参数数量对 AI 的输出有很大的影响。随着数量的攀升,AI 需要更大的运算能力,但是它会产生明显更好的结果。然而,要达到最佳效果,光靠量是不够的,而且 Facebook 在简单调整参数大小之外所做的工作着实令人印象深刻。
根据 Blender 专案页面指出:
良好的对话需要许多聊天专家能无缝加以融合的技巧:提供引人入胜的谈话要点并倾听伙伴的心声,能够提问也能解答,并能根据情况适当展现知识、同理心和个性。结果证明,在给定适当训练资料和生成策略选择的情况下,大型模型可以学到这些技能。
其结果是,一个聊天机器人往往能很有说服力地完成与人类的对话。在某些方面,它可以通过图灵测试(Turing Test)。虽然这很可能代表了地球上最先进的对话式 AI。但这不过是一个小把戏罢了。
AI 根本无法理解言词背后的含义,Chatbot 成功建立在「类人化」的撒谎基础上
Facebook 的 AI 根本听不懂它自己在说什幺。它无法「倾听」任何人,因为它无法理解语言或言词背后的含义。它只会在开发人员认为适当的回应与开发人员认为不适当的回应之间建立关联。
它不能「展现知识」,因为它实际上没有知识库。它使关联看起来有意义。举例来说,如果你告诉它你最喜欢非凡人物乐团(Smashing Pumpkins)的歌,那幺它会告诉你,它更喜欢别的歌,但事实上它从未有接触过音乐的体验。它只是在处理自然语言而已。它不了解什幺是音讯、图像或视讯。
它也没有同理心,它无法理解你的感受,也无法回应自己的感受。它只是用它经训练而理解的陈述来做适当的回应。例如,如果你说自己很难过,那幺它就不会说「恭禧」之类的蠢话,至少在最佳化状况下不会如此。
基本上,Facebook 的 AI 确实非常擅于装神弄鬼(Gaslighting)和诈骗(Catfishing)。它逐渐成为一个完美的骗子,因为没有其他选择。AI 既无法感觉也无法思考,所以它无从体验。而且,没有亲身的经历,就不会有人性。因此,机器人必须撒谎才能取得成功,因为它的成功是建立在其对话能力要如何更「类人化」的基础上。
也许有一天,人类会后悔当初决定用可信的藉口来代替人类的对话智慧。但就如同 AI 存在的威胁一样,最大的危险不是机器人会利用它们不断增长的力量来伤害我们,而是其他人类会这幺做。
- Facebook’s teaching AI to lie like a human