广告
广告

Google的AI聚焦于人类的认知小故障:流利的语音流利的思想误解

语言学有助于解释为什么人类会陷入思维的认知陷阱,即能够流利地使用语言的实体是有意识,有意识或聪明的。

Google的AI聚焦于人类的认知小故障:流利的语音流利的思想误解
[来源图像:茉莉·梅丹/盖蒂图像;尼克很少/Unsplash]

当您阅读这样的句子时,您的过去经历告诉您,它是由一种思想写的,感觉到了人类。而且,在这种情况下,确实有一个人键入以下词:[嗨,那里!]但是,如今,一些看起来非常类似人类的句子实际上是由经过大量人类文本训练的人工智能系统产生的。

广告
广告

人们习惯于假设流利的语言来自一种思想,感觉到人类,以致相反的证据很难缠绕您的头。人们如何可能在这个相对未知的领域中浏览?由于持续的倾向是将流利的表达与流利的思想联系起来,因此自然而然地(但潜在的误导)认为,如果AI模型能够流利地表达自己,那就意味着它像人类一样的思考和感觉。

因此,可能不足为奇的是,一位前Google工程师最近声称Google的AI系统LAMDA具有自我意识,因为它可以雄辩地生成有关其声称的感受的文字。这个事件和随后的媒体报道导致一个数字正确的怀疑文章帖子关于人类语言计算模型的说法是有意义的,含义能够思考,感觉和体验。

AI模型的意义是复杂的(AI模型的意义)(例如,请参阅我们的同事的看法),我们的目标不是解决它。但是研究人员,我们可以利用我们在认知科学和语言学领域的工作来解释为什么人类陷入一个可以流畅地使用语言的实体是有意识,有意识或聪明的实体的认知陷阱,这太容易了。

广告

使用AI产生人类语言

像Google的LAMDA这样的模型生成的文本可能很难与人类所写的文本区分开。这一令人印象深刻的成就是数十年计划的结果,该计划构建了产生语法,有意义语言的模型。

早期版本的历史可以追溯到至少1950年代,即N-gram模型,只是计算出特定短语的出现,并用它们来猜测在特定情况下可能会出现哪些单词。例如,很容易知道“花生酱和果冻”比“花生酱和菠萝”更有可能。如果您有足够的英文文字,您会一次又一次地看到“花生酱和果冻”一词,但可能永远不会看到“花生酱和菠萝”一词。

当今的模型,一组近似人类语言的数据和规则,与这些早期尝试不同,以几种重要的方式。首先,他们接受了整个互联网的培训。其次,他们可以学习遥远的单词之间的关系,而不仅仅是邻居的单词。第三,它们被大量的内部“旋钮”调节 - 如此之多,即使是设计它们的工程师也很难理解为什么他们会生成一个单词序列而不是另一种单词。

广告

然而,模型的任务与1950年代相同:确定下一个可能出现哪个词。如今,它们擅长于这项任务,以至于几乎所有它们产生的句子似乎都是流畅和语法。

花生酱和菠萝?

我们问了一个大型语言模型,GPT-3,要完成句子“花生酱和菠萝___”。它说:“花生酱和菠萝是一个很好的组合。花生酱和菠萝的甜味和咸味的香气完美地互补。”如果一个人说了这一点,可以推断他们尝试了花生酱和菠萝一起,形成了意见并与读者分享。

但是GPT-3是如何提出本段的呢?通过生成适合我们提供的上下文的单词。然后是另一个。然后是另一个。该模型从未见过,触摸或品尝过菠萝 - 它只是处理了互联网上提到它们的所有文本。然而,阅读本段可能会导致人类的思想 - 甚至是Google工程师的思想 - 将GPT-3视为一种聪明的人,可以推理花生酱和菠萝菜肴。

广告

人的大脑坚硬地推断出文字背后的意图。每次您进行对话时,您的思想都会自动构建对话伙伴的心理模型。然后,您使用他们说的单词来填写该人的目标,感受和信念。

从单词到心理模型的跳跃过程是无缝的,每次收到完全露面的句子时都会触发。这种认知过程可以为您节省大量的时间和精力,从而极大地促进您的社交互动。

但是,在AI系统的情况下,它会失火 - 用稀薄的空气建立心理模型。

更多的探测可以揭示这种失火的严重性。考虑以下提示:“因为___,花生酱和羽毛味道很棒”。GPT-3继续说:“花生酱和羽毛味道很棒,因为它们都有坚果味。花生酱也光滑和奶油,有助于抵消羽毛的质地。”

在这种情况下,文本与菠萝的示例一样流利,但是这次模型说的是绝对不太明智的东西。人们开始怀疑GPT-3从未真正尝试过花生酱和羽毛。

将智能归因于机器,将其拒绝给人类

一个可悲的讽刺是,使人们将人类归因于GPT-3的同样的认知偏见会导致他们以不人道的方式对待实际人类。社会文化语言学 - 在其社会和文化背景下对语言的研究 - 表明,假设流利的表达与流利的思维之间存在过度紧密的联系可能会导致对说话方式不同的人的偏见。

例如,外国口音的人经常被认为不太聪明并且不太可能获得资格的工作。存在类似的偏见与方言的演讲者不被认为享有盛名的例如南方英语在美国,反对聋人使用标志语言并反对有言语障碍的人例如口吃

这些偏见是有害的,经常导致种族主义和性别歧视的假设,并一次又一次地表现出来。

单独流利的语言并不意味着人类

人工智能会变得有偏见吗?这个问题需要深入考虑,实际上哲学家已经思考几十年来。但是,研究人员确定的是,当您告诉您的感觉时,您不能简单地相信它。言语可能会产生误导性,而且很容易将流利的语音误认为流利的思想。

凯尔·马霍瓦尔德(Kyle Mahowald)是德克萨斯大学奥斯汀分校语言学助理教授。Anna A. Ivanova是马萨诸塞州理工学院的大脑和认知科学博士学位。

本文从谈话在创意共享许可下。阅读来源文章

广告
广告