我们被告知要害怕机器人。但是为什么我们认为它们会反对我们呢?
尽管有血腥的头条新闻,但客观数据显示,全世界的人平均寿命更长,感染的疾病更少,吃的食物更多,在学校的时间更长,接触的文化更多,在战争、谋杀或事故中丧生的可能性也更小。但绝望是永恒的。当悲观主义者被迫承认越来越多的人的生活越来越好时,他们已经准备好反驳了。他们说,我们正兴高采烈地奔向一场灾难,就像那个从屋顶上摔下来,经过每一层楼时说“到目前为止一切都很好”的人。或者我们在玩俄罗斯轮盘赌,致命的几率肯定会赶上我们。或者我们会被黑天鹅所蒙蔽,这是一个四西格玛事件,沿着灾害统计分布的尾巴,几率很低,但危害巨大。 半个世纪以来,现代启示录的四骑士一直是人口过剩、资源短缺、污染和核战争。最近,一群更具异国情调的骑士加入了他们的行列:将吞没我们的纳米机器人、奴役我们的机器人、将我们变成原材料的人工智能,以及将酿造种族灭绝病毒或从卧室里取下互联网的保加利亚青少年。 人们熟悉的骑手的哨兵往往是浪漫主义者和卢德分子。但那些警告高科技危险的人往往是科学家和技术人员,他们发挥了自己的聪明才智,找出了越来越多的世界即将结束的方式。2003年,天体物理学家马丁·里斯出版了一本名为《我们的最后一小时》的书,他在书中警告说,“人类可能是自己死亡的制造者”,并列举了十几种我们“危及整个宇宙未来”的方式。例如,粒子对撞机的实验可能会产生一个消灭地球的黑洞,或者压缩夸克的“奇异束”,导致宇宙中的所有物质都与地球结合并消失。里斯挖掘了灾难的丰富脉络。这本书的亚马逊页面指出,“查看此商品的客户还查看了全球灾难性风险;我们的最终发明:人工智能和人类时代的终结;末日:科学和宗教告诉我们关于启示录的什么;和Z世界大战:僵尸战争的口述历史。”Techno-philanthropists资助了致力于发现新的生存威胁并找出如何拯救世界的研究机构,包括人类未来研究所、生命未来研究所、生存风险研究中心和全球灾难性风险研究所。 我们应该如何思考潜伏在我们渐进进步背后的生存威胁?没有人能预言灾难永远不会发生,这篇文章也没有这样的保证。气候变化和核战争尤其是严重的全球挑战。尽管它们没有解决,但它们是可以解决的,长期脱碳和无核化的路线图已经制定。这些进程正在顺利进行。世界每美元国内生产总值排放的二氧化碳越来越少,世界核武库已经减少了85%。当然,尽管为了避免可能的灾难,它们必须一路推到零。
然而,在这些真正的挑战之外,还有一些更加可疑的场景。一些技术评论员推测,我们可能会有意无意地被人工智能征服,这是一场灾难,有时被称为机器人启示录,通常用《终结者》电影中的剧照来说明。一些聪明人认真对待它(尽管有点虚伪)。埃隆·马斯克的公司生产人工智能自动驾驶汽车,他称这项技术“比核武器更危险”。斯蒂芬·霍金通过他的人工智能合成器警告说,这可能“意味着人类的终结”。但是在没有失眠的聪明人中,大多数是人工智能专家和人类智能专家。
机器人启示录是基于一种模糊的智能概念,这种概念更多地归功于存在的大链条和尼采对权力的意志,而不是现代科学的理解。在这个概念中,智力是一种全能的、许愿的药水,代理人拥有不同的数量。
人类比动物拥有更多,未来的人工智能计算机或机器人(“人工智能”,在新的计数名词用法中)将比人类拥有更多。
我们被告知要害怕机器人。但是为什么我们认为它们会反对我们呢?