大科技公司最新的人工智能末日警告可能更多的是同样的炒作
350多名人工智能研究人员、伦理学家、工程师和公司高管共同签署了一份关于人工智能对人类潜在生存风险的22个单词的单句声明。由非盈利性组织人工智能安全中心编制,该联盟包括“人工智能教父”杰弗里·辛顿、OpenAI首席执行官萨姆·奥尔特曼和微软首席技术官凯文·斯科特,他们一致认为,“减轻人工智能灭绝的风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”
这封长达22个字的信及其支持呼应了今年早些时候发布的一封类似的、略长的联名信,呼吁在6个月内“暂停”开发比OpenAI的GPT-4更强大的人工智能的研究。这样的暂停尚未实施。
[相关:人工智能暂停信有一个明显的问题。]
人工智能安全中心执行董事丹·亨德里克斯周二在接受《纽约时报》采访时称,这封公开信是一些行业领袖的“出柜”。亨德里克斯补充道:“即使在人工智能领域,也有一个非常普遍的误解,即只有少数人会注定要失败。但事实上,许多人私下里会对这些事情表示担忧。”
但批评者仍然对这些公开声明背后的动机及其可行性保持警惕。
分布式人工智能研究所(DAIR)的研究工程师迪伦·贝克(Dylan Baker)说:“不要被愚弄:这是伪装成敲响警钟的自私炒作。”分布式人工智能研究所(DAIR)是一个促进人工智能道德发展的组织。贝克在接受PopSci采访时继续指出,目前关于假设存在风险的讨论分散了公众和监管机构对“当今人工智能的具体危害”的注意力。这些危害包括“放大算法伤害,从被剥削的劳动力和被盗数据中获利,以及通过资源消耗加剧气候崩溃。”
DAIR在3月份的公开信后首次发布了另一份回应,并于周二再次发布。该组织认为,“所谓人工智能的危害是真实存在的,是部署自动化系统的个人和公司的行为造成的。监管工作应侧重于透明度、问责制和防止剥削性劳动行为。”
然而亨德利克斯认为 “就像完全优先考虑当前的危害是鲁莽的一样,忽视它们也是鲁莽的。”亨德里克斯把这一时刻比作原子科学家在引用罗伯特·奥本海默之前警告世界他们创造的技术,“我们知道世界会不一样。”
[相关: OpenAI最新的ChatGPT更新仍然可以传播阴谋论。]
“他们基本上是在说‘阻止我!’媒体和技术理论家道格拉斯·拉什科夫在周二发表的一篇文章中写道。他补充说,“炒作、恶意、营销和偏执”的结合正在推动人工智能报道,并在公司试图巩固对该行业的控制时隐藏该技术非常真实、明显的问题。“这只是一种虚张声势,”他写道,“对不起,但我就是不相信。"
在给PopSci的另一封电子邮件中,Rushkoff总结了他的想法,“如果我必须引用与他们的公告成比例的简短,我只会说:他们的意思是好的。他们中的大多数。”
大科技公司最新的人工智能末日警告可能更多的是同样的炒作