图书馆员跟不上糟糕的人工智能

AI资讯 2026-01-28 11:45:12 尤强星

生成式人工智能仍然存在幻觉问题。尽管对用户查询的许多回答基本上是准确的,但像ChatGPT、谷歌双子座和微软副驾驶这样的程序仍然倾向于提供虚构的信息和事实。尽管这本身很糟糕,但这些人工智能程序倾向于产生看似信誉良好但完全虚构的来源,这一问题进一步复杂化了。但尽管这对数百万用户来说很烦人,但它正在成为被信任提供可靠真实信息的人的一个主要问题:图书馆员。

“对我们的工作人员来说,证明一个独特的记录不存在要困难得多,”弗吉尼亚图书馆的研究参与图书管理员莎拉·福尔斯告诉《科学美国人》。

福尔斯估计,她的员工收到的所有参考问题中,约有15%是由生成人工智能编写的,其中一些包括虚构的引用和来源。图书馆员和机构增加的负担如此之重,以至于甚至像红十字会这样的组织也在提醒人们注意这个问题。

红十字国际委员会本月早些时候在一份公告中警告称:“一个具体的风险是,生成型人工智能工具总是会产生一个答案,即使历史来源不完整或没有任何信息。因为它们的目的是生成内容,所以它们不能表明不存在任何信息;相反,它们会发明看似合理但在档案记录中没有依据的细节。”

该组织建议你直接接触他们的公开信息目录和学术档案,而不是向ChatGPT这样的程序索要一份红十字国际委员会报告清单。同样的策略应该扩展到任何机构。不幸的是,在更多人理解生成人工智能的易错性之前,负担仍将落在人类档案工作者身上。

“我们可能还会让我们的用户知道,我们必须限制我们花在验证信息上的时间,”Falls警告说。

几千年来,图书馆员一直是社会不可或缺的组成部分,这是有充分理由的。与生成人工智能不同,他们接受过批判性思考、寻找答案的训练,最重要的是,承认自己错了。

© 版权声明

相关文章

欧特克为全球150m学生和教育工作者提供免费软件和技术

该公司宣布,欧特克已向全球150m学生和教育工作者免费提供其软件和技术 十多年来,欧特克免费向经认证的机构和经过验证的学生和教育工作者提供其专业级工具,使他们能够获得世界各地建筑师、工程师、制造商和创造者使用的相同技术。
2026-01-29

图书馆员跟不上糟糕的人工智能 暂无评论