如果听起来不错,那一定是人类:谷歌的语言人工智能将我们暴露为肤浅的听众
这篇文章最初发表在《对话》中。
Kyle Mahowald是德克萨斯大学奥斯汀文科学院语言学助理教授;Anna A. Ivanova是麻省理工学院(MIT)脑与认知科学博士候选人。
当你读到这样的句子时,你过去的经验告诉你,这是由一个有思想、有感觉的人写的。在这种情况下,确实有一个人输入了这些单词:[你好!]但是现在,一些看起来非常像人类的句子实际上是由人工智能系统在大量人类文本上训练生成的。
人们如此习惯于假设流利的语言来自人类的思维和感觉,以至于很难理解相反的证据。人们可能如何在这个相对未知的领域导航?由于人们一直倾向于将流利的表达与流利的思维联系起来,认为如果人工智能模型能够流利地表达自己,这意味着它的思维和感觉就像人类一样是很自然的,但可能会误导人。
因此,一位前谷歌工程师最近声称谷歌的人工智能系统LaMDA有自我意识也许并不奇怪,因为它可以雄辩地生成关于其所谓感受的文本。这一事件和随后的媒体报道导致了许多正确地怀疑人类语言的计算模型是有感觉的,意味着能够思考、感受和体验的文章和帖子。
人工智能模型具有感知能力意味着什么?这个问题很复杂(例如,参见我们同事的观点),我们的目标不是解决这个问题。但作为语言研究人员,我们可以利用我们在认知科学和语言学方面的工作来解释为什么人类很容易陷入认知陷阱,认为能够流利使用语言的实体是有感知、有意识或有智慧的。
使用AI生成类人语言
谷歌的LaMDA等模型生成的文本很难与人类编写的文本区分开来。这一令人印象深刻的成就是一项长达数十年的计划的结果,该计划旨在构建生成语法、有意义的语言的模型。
至少可以追溯到20世纪50年代的早期版本被称为n-gram模型,它只是简单地计算特定短语的出现次数,并用它们来猜测哪些单词在特定上下文中可能出现。例如,很容易知道“花生酱和果冻”比“花生酱和菠萝”更有可能是一个短语。如果你有足够的英文文本,你会一次又一次地看到“花生酱和果冻”这个短语,但可能永远不会看到“花生酱和菠萝”这个短语
今天的模型、数据集以及近似人类语言的规则,在几个重要方面不同于这些早期尝试。首先,它们基本上是在整个互联网上训练的。其次,它们可以学习相距遥远的单词之间的关系,而不仅仅是相邻的单词。第三,它们由大量的内部“旋钮”调整——如此之多,以至于设计它们的工程师也很难理解为什么它们会产生一个单词序列而不是另一个。
然而,模型的任务与20世纪50年代一样:确定下一个可能出现的单词。今天,他们非常擅长这项任务,以至于他们生成的几乎所有句子看起来都流畅且语法流畅。
花生酱和菠萝?
我们请了一个大型语言模型GPT-3来完成“花生酱和pineapples___”这句话。它说:“花生酱和菠萝是一个很好的组合。花生酱和菠萝的甜味和咸味完美地相辅相成。”如果一个人这样说,人们可能会推断他们一起尝试了花生酱和菠萝,形成了一种观点并与读者分享。
但是GPT-3是怎么想出这一段的呢?通过生成一个符合我们提供的上下文的单词。然后是另一个。然后是另一个。模型从未见过、摸过或尝过菠萝——它只是处理了互联网上所有提到菠萝的文本。然而,阅读这一段可以让人类——甚至是谷歌工程师——把GPT-3想象成一个智能生物,可以推理花生酱和菠萝菜肴。
人类大脑天生就会推断出话语背后的意图。每次你参与谈话时,你的大脑都会自动构建一个谈话伙伴的心理模型。 然后你用他们说的话来填充那个人的目标、感受和信仰的模型。
从单词跳转到心理模型的过程是无缝的,每次你收到一个成熟的句子都会被触发。这个认知过程在日常生活中为你节省了大量的时间和精力,极大地促进了你的社交互动。
然而,在人工智能系统的情况下,它会失败——凭空构建一个心智模型。
稍加探究就可以揭示这种失败的严重性。考虑以下提示:“花生酱和羽毛一起尝起来很棒because___”。GPT-3继续说道:“花生酱和羽毛一起尝起来很棒,因为它们都有坚果的味道。花生酱也很光滑,像奶油一样,这有助于抵消羽毛的质地。”
在这种情况下,文本就像我们的菠萝例子一样流畅,但这一次模型所说的东西显然不那么明智。人们开始怀疑GPT-3从未真正尝试过花生酱和羽毛。
将智能赋予机器,否认它给人类
一个可悲的讽刺是,让人们将人性归因于GPT-3的认知偏见也会导致他们以不人道的方式对待真正的人类。社会文化语言学——在社会和文化背景下研究语言——表明,假设流利的表达和流利的思维之间存在过于紧密的联系会导致对说话不同的人的偏见。
例如,有外国口音的人通常被认为不太聪明,也不太可能找到他们能胜任的工作。对说不被认为有声望的方言的人(如美国的南方英语)、使用手语的聋人以及口吃等语言障碍的人也存在类似的偏见。
这些偏见非常有害,往往导致种族主义和性别歧视的假设,并且一次又一次地被证明是没有根据的。
流利的语言本身并不意味着人性
人工智能会变得有知觉吗?这个问题需要深入思考,事实上哲学家们已经思考了几十年。然而,研究人员已经确定,当语言模型告诉你它的感觉时,你不能简单地相信它。单词可能会误导人,很容易把流利的语言误认为流利的思维
如果听起来不错,那一定是人类:谷歌的语言人工智能将我们暴露为肤浅的听众