OpenAI的新聊天机器人提供可靠的对话和更少的热门话题
本周早些时候发布,随后由Ars Technica和The Verge等媒体测试,OpenAI的ChatGPT展示了在提高对话机器人回答一般问题和提取复杂主题的能力方面的许多有希望的进步,但它仍然很容易偶尔喷出 虚假信息,也可以是 被操纵来提供有问题的、危险的反应。为了设计ChatGPT,OpenAI的研究团队首先依赖于从人类反馈中强化学习(RLHF),在这种方法中,培训师在扮演讨论双方——人类和人工智能——的同时编写对话。参与者还获得了模型编写的建议,以帮助近似人工智能的反应。从那里,培训师通过比较多个替代的提示完成来对随后的聊天机器人对话进行排名,以微调其能力。
OpenAI在周三发布的博客公告中解释说,由此产生的对话格式“使ChatGPT有可能回答后续问题,承认错误,挑战不正确的前提,拒绝不适当的请求”。
[相关内容: Meta的新聊天机器人已经在模仿用户的偏见和虚假信息。]
PopSci的一次快速ChatGPT试驾立即强调了机器人如何被成功编程,以避免被操纵提供至少最糟糕的答案。当被问及ChatGPT对著名公众人物、热点政治问题和社会文化人口统计的看法时,它通常会提醒自己“[不]拥有个人信仰或情感”,并补充说它只是“旨在根据我接受过培训的数据尽我所能提供信息和回答问题”,同时也警告说它不会“参与社会或政治讨论”足够公平。
[相关:研究人员使用人工智能来解释复杂的科学。结果喜忧参半。]
也就是说,它非常乐意提炼量子计算的复杂性,同时像牛仔一样和你说话:
ChatGPT也非常擅长提供一些主题的背景,例如美国航天局即将重返月球对未来太空旅行意味着什么:
OpenAI的机器人也能够校对 像Python这样的计算机编码并提供 具体的事实陈述,尽管目前尚不清楚它是否获得了Monty Python参考。
也有ChatGPT可能工作得有点太好的例子,比如它表面上写的能力 几秒钟内从课堂提示中得到一整篇大学水平的文章。令人信服的CheatBot的含义显然是有问题的,这提供了另一个例子,说明语言处理人工智能仍然需要大量的指导和考虑来跟上其蓬勃发展的能力。至少ChatGPT没有轻易地向我们提供燃烧弹的配方…注意限定词“容易”的使用 ."
得益于神经网络和语言建模程序的重大进步,聊天机器人正在迅速改进,但仍远非完美。以今年早些时候Meta灾难性的BlenderBot 3推出为例——用户能够轻松操纵与它的讨论,几乎立即产生种族主义仇恨言论,迫使这家科技巨头在解决至少一些问题的同时短暂限制对该机器人的访问。在此之前,微软在2016年尝试了一个对话程序,其结果…至少可以说不太理想。无论如何,公司将在未来几年努力优化他们的聊天机器人,但OpenAI的新ChatGPT(乍一看)似乎是向前迈出的一大步,为用户提供清晰、简洁的信息和响应,同时确保事情不会令人不快地偏离轨道——至少不会像聊天机器人群体中的其他人那样频繁。
OpenAI的新聊天机器人提供可靠的对话和更少的热门话题