研究人员使用人工智能来解释复杂的科学。结果喜忧参半。
如果你曾经盯着一篇学术论文,皱着眉头,想知道作者想说什么,请举手。如果你拉起一个单独的标签来谷歌你遇到的任何行话,你会得到加分。
好消息是,你并不孤单。2017年eLife的一项研究发现,2010年代中期的科学论文比19世纪的论文更难阅读。似乎困扰大多数现代学术论文的特点是结构不良的句子、可疑的单词选择,以及不必要的行话和晦涩难懂的首字母缩略词。这可能会使该领域的初级研究人员和没有科学背景的人很难获得科学知识。
那么人工智能能帮上忙吗?一个名为tl; dr的新人工智能项目试图通过使用机器学习来梳理冗长研究论文的摘要,并对其内容进行精炼总结,即使是7岁的孩子也能理解。
《边缘报》报道称,尽管这个程序是在近两年前首次创建的,但当学术研究人员将他们的文章输入其中并在推特上分享它生成的摘要时,它在周末迅速传播开来。其中一些摘要惊人地准确和简单,而另一些则可笑地偏离了目标。
例如,人工智能将“玻璃悬崖”的概念总结为“很多女性被安置的地方”和“糟糕的地方”。该论文的作者、澳大利亚国立大学全球女性领导力研究所所长米歇尔·瑞安告诉《边缘》杂志,虽然它是准确的,但它没有提供太多细微差别。最终,她和《边缘》杂志联系的其他研究人员承认,这是一个“有趣的工具”,可以向科学家展示“以更适合读者的方式写作”是什么样子
尽管广受欢迎,tl; dr论文的创作者告诉《边缘》杂志,他们打算停用该产品(该网站目前正在维护中),提供替代工具,如艾伦人工智能研究所创建的人工智能摘要器。
[相关:谷歌的这个新的人工智能工具可能会改变我们在线搜索的方式]
这不是人类第一次求助于机器人来合成简报。2017年,一家名为Primer的公司使用人工智能根据传入的数据和信息为间谍创建情报报告。两年后,《纽约时报》报道称,人工智能驱动的机器人记者正在协助世界各地的许多新闻编辑室。一个由与tl; dr论文运行的相同神经网络驱动的机器人甚至在《卫报》上发表了一篇关于人工智能威胁的专栏文章。
有问题的神经网络被称为GPT-3,这是一种由OpenAI创建的语言编写人工智能工具。它接受了大约2000亿单词的训练,学会了编码、博客和辩论。据《自然》报道,人工智能令人印象深刻,以至于开发人员正在尝试将其用于法律文件、客户服务查询、基于文本的角色扮演游戏等。
尽管它有时会很有趣,也很不可思议,但沃克斯指出,它并不智能,这意味着它并不真正理解它收到的笔记之外的世界;它通过解析单词和短语之间的关系来工作。《自然》去年3月报道称,GPT-3的创造者正致力于教人工智能搜索概念,而不是特定的单词或短语。
但不幸的是,人工智能仍然缺乏常识。这就是为什么像大多数大型语言模型一样,它有时会出错、产生废话、提供危险信息或存在负面偏见。《自然》提出,也许将这些模型修补到大型事实数据库是解决方案。或者,这些机器人作家可以从人类编辑器中受益。
研究人员使用人工智能来解释复杂的科学。结果喜忧参半。