微软在大量人工智能产生的怪异之后改变了必应聊天机器人的限制
对于任何关注微软必应聊天机器人传奇的人来说,这都是一段疯狂的旅程。在2月7日广为人知的首次亮相后,它和它的直接竞争对手谷歌的巴德几乎立即被用户无数次显示的古怪反应、误导性陈述、不道德的后果和不正确的信息所掩盖。然而,在仅仅一周的封闭测试之后,微软似乎已经通过悄悄地设置一些交互限制来推迟其“搜索的新日”,这些限制对必应最早的测试人员产生了重大影响。
正如多个来源所强调的那样 ——包括许多忠实的必应subreddit用户——微软似乎已经在周五对等待列表中的ChatGPT集成搜索引擎发起了三次更新:用户每天50条消息的限制,每个单独对话只允许五次交流,并且没有关于必应人工智能本身的讨论。
[相关:不,人工智能聊天机器人(仍然)没有感知能力。]
尽管乍看之下微软的新繁文缛节似乎微不足道,但这些简单的变化极大地限制了用户在与Bing机器人讨论时可以生成的内容。例如,一次对话的五条消息限制大大降低了绕过聊天机器人护栏的可能性,这些护栏旨在防止仇恨言论和骚扰等棘手话题。以前,黑客可以通过用户巧妙的一系列命令、问题和提示来完成,但现在证明,在五步或更少的动作中完成要困难得多。
同样,禁止必应谈论“本身”将在假设上限制其意外生成情绪操纵答案的能力,用户可能会将这些答案误解为人工智能感知的早期阶段(剧透:事实并非如此)。
许多用户对受限必应的引入感到遗憾,并认为该机器人的古怪之处首先使其如此有趣和多才多艺。彼得:“人工智能旨在提供答案,但人们只是想让[感受到联系,这很有趣。” Roblox的产品经理杨在周末评论道。但是如果有一件事已经被反复证明,那就是专注的修补匠不断找到越狱最新技术的方法。
[相关:仅仅因为人工智能可以进行对话并不能让它变得聪明。]
在2月15日的博客更新中,微软承认人们使用必应进行“社交娱乐”是“新技术找到适合我们没有完全设想的产品市场的一个很好的例子”
然而,最近的在线文件跟踪表明,该公司早在2022年11月就提前通知了支持ChatGPT的必应中的问题。正如科技博主René所强调的那样 沃尔特和随后的纽约大学心理学和神经科学教授加里·马库斯,微软四个多月前在印度公开测试了必应人工智能版本,并收到了类似的令人不安的投诉,这些投诉仍然可以在网上找到。
微软在大量人工智能产生的怪异之后改变了必应聊天机器人的限制