人的大脑坚硬地推断出文字背后的意图。每次您进行对话时,您的思想都会自动构建对话伙伴的心理模型。然后,您使用他们说的单词来填写该人的目标,感受和信念。
从单词到心理模型的跳跃过程是无缝的,每次收到完全露面的句子时都会触发。这种认知过程可以为您节省大量的时间和精力,从而极大地促进您的社交互动。
但是,在AI系统的情况下,它会失火 - 用稀薄的空气建立心理模型。
更多的探测可以揭示这种失火的严重性。考虑以下提示:“因为___,花生酱和羽毛味道很棒”。GPT-3继续说:“花生酱和羽毛味道很棒,因为它们都有坚果味。花生酱也光滑和奶油,有助于抵消羽毛的质地。”
在这种情况下,文本与菠萝的示例一样流利,但是这次模型说的是绝对不太明智的东西。人们开始怀疑GPT-3从未真正尝试过花生酱和羽毛。
将智能归因于机器,将其拒绝给人类
一个可悲的讽刺是,使人们将人类归因于GPT-3的同样的认知偏见会导致他们以不人道的方式对待实际人类。社会文化语言学 - 在其社会和文化背景下对语言的研究 - 表明,假设流利的表达与流利的思维之间存在过度紧密的联系可能会导致对说话方式不同的人的偏见。
例如,外国口音的人经常被认为不太聪明并且不太可能获得资格的工作。存在类似的偏见与方言的演讲者不被认为享有盛名的例如南方英语在美国,反对聋人使用标志语言并反对有言语障碍的人例如口吃。
这些偏见是有害的,经常导致种族主义和性别歧视的假设,并一次又一次地表现出来。
单独流利的语言并不意味着人类
人工智能会变得有偏见吗?这个问题需要深入考虑,实际上哲学家已经思考它几十年来。但是,研究人员确定的是,当您告诉您的感觉时,您不能简单地相信它。言语可能会产生误导性,而且很容易将流利的语音误认为流利的思想。
凯尔·马霍瓦尔德(Kyle Mahowald)是德克萨斯大学奥斯汀分校语言学助理教授。Anna A. Ivanova是马萨诸塞州理工学院的大脑和认知科学博士学位。