仅仅因为人工智能可以进行对话并不能让它变得聪明

AI资讯 2026-01-28 12:09:22 平天凝

人工智能对话工具正在成为主流,对许多造谣研究人员来说,这是一个令人担忧的主要原因。本周,谷歌在巴黎的一次活动中宣布了其对开放人工智能ChatGPT的回应——巴德,并加倍努力在其许多核心产品中推出人工智能增强功能。同样,微软宣布ChatGPT将很快与备受诽谤的搜索引擎必应集成。未来几个月,这些对话工具将广泛使用,但一些问题已经开始出现。

对话式人工智能是使用一种称为“大型语言模型”(LLM)的神经网络框架构建的,非常擅长生成语法连贯、看似可信和类似人类的文本。它们能做到这一点,是因为它们是在数百千兆字节的人类文本上训练的,其中大部分是从互联网上抓取的。为了生成新文本,该模型将通过在给定一系列标记的情况下预测下一个“标记”(基本上是一个单词或一个复杂单词的片段)来工作(许多研究人员将其与我们过去在学校做的“填空”练习进行了比较)。

例如,我让ChatGPT写关于大众科学的文章,它首先说“大众科学是一本科学和技术杂志,于1872年首次出版。”在这里,很明显,它正在从我们的关于页面和维基百科页面等地方抄袭信息,并计算以“大众科学是……”开头的句子的可能后续单词是什么……”这一段以大致相同的方式继续,每个句子都是ChatGPT接受培训的内容中自然跟随的东西。

不幸的是,这种预测接下来可能出现的单词和句子的方法意味着对话式人工智能在事实上经常是错误的,除非你已经知道这些信息,否则你很容易被误导,因为它们听起来像是知道自己在说什么。从技术上讲,PopSci不再是一本杂志,但谷歌通过推出Bard更好地证明了这一点。(这也是为什么大型语言模型可以反刍阴谋论和其他令人反感的内容,除非经过专门训练不要这样做。)

[相关:人工智能广阔世界的简单指南]

谷歌公告中的一个演示问题(截至撰写本文时仍在直播)是“詹姆斯·韦伯太空望远镜的哪些新发现我能告诉我9岁的孩子吗?”作为回应,巴德提出了三个要点,其中一个说“JWST拍摄了太阳系外行星的第一张照片。”

虽然这听起来像是你所期望的有史以来最大的太空望远镜所做的事情——JWST确实在观测系外行星——但它没有找到第一个。据路透社和美国航天局报道,这一荣誉授予欧洲南方天文台的超大望远镜(VLT),它在2004年发现了一个。如果这是作为向巴德征求建议的一部分而不是作为一个非常公开的公告的一部分发生的,就不会有几十名天文学专家准备介入并纠正它。

微软正在采取更直接的方式。The Verge发现,必应的新常见问题解答称,“人工智能可能会犯错”,“必应有时会歪曲它发现的信息,你可能会看到听起来令人信服但不完整、不准确或不恰当的回答。”它继续呼吁用户做出自己的判断,并仔细检查人工智能提供的事实。(它还说,你可以问必应:“你从哪里得到这些信息的?”以找出它用来生成答案的来源。)

不过,这感觉有点像是微软在逃避责任。没错,人们应该对他们在网上看到的信息持怀疑态度,但微软也有责任确保它提供给数百万用户的工具不只是编造和呈现真实的东西。必应等搜索引擎是人们用来核实事实的最佳工具之一——它们不应该增加虚假信息的数量。

这一责任可能在法律上是可执行的。将于2024年某个时候生效的欧盟《数字服务法》有专门防止虚假信息传播的规定。不遵守新法律可能会导致公司年营业额高达6%的罚款。 鉴于欧盟最近对美国科技公司处以巨额罚款,以及现有规定搜索引擎必须删除某些可被证明不准确的信息,这个由27个国家组成的集团似乎有可能对谷歌或必应显著显示的人工智能生成的虚假信息采取强硬立场。他们已经被迫对其他形式的生成的虚假信息采取更强硬的立场,如深度伪造和虚假社交媒体账户。

随着这些对话式人工智能很快将被广泛免费使用,我们可能会看到更多关于它们的使用有多合适的讨论——尤其是当它们声称是权威的信息来源时。与此同时,让我们记住,未来这类人工智能创造语法上连贯的废话要比他们对查询编写经过充分事实核查的响应容易得多。

© 版权声明

相关文章

欧特克为全球150m学生和教育工作者提供免费软件和技术

该公司宣布,欧特克已向全球150m学生和教育工作者免费提供其软件和技术 十多年来,欧特克免费向经认证的机构和经过验证的学生和教育工作者提供其专业级工具,使他们能够获得世界各地建筑师、工程师、制造商和创造者使用的相同技术。
2026-01-29

仅仅因为人工智能可以进行对话并不能让它变得聪明 暂无评论