美国立法者说,人工智能永远不应该能够发射核武器
上周,众议员特德·刘与参议员爱德华·马基和许多其他两党共同发起人一起提出了《自主人工智能块核发射法案》。该法案的目标和它的名字一样简单:确保人工智能永远不会在美国核战略中拥有最终发言权。
“虽然我们都在努力应对人工智能加速的速度,但人工智能的未来及其在社会中的作用仍不明朗。作为国会议员,我们的工作是在保护后代免受潜在毁灭性后果的影响时,要有负责任的远见,”刘众议员在该法案的公告中说,并补充道,“在发射核武器方面,人工智能永远不能取代人类的判断。”
他不是唯一一个这么想的人——哈佛法学院国际人权诊所合著的2021年人权观察报告指出,“[机器人缺乏人道对待人类所必需的同情心、同理心、仁慈和判断力,他们无法理解人类生命的内在价值。”
[相关:这款人工智能大脑扫描仪可以解释你的想法。]
如果获得通过,该法案将合法地编纂2022年《核态势评估》中的现有国防部程序,该报告指出,“在所有情况下,美国都将保持一个人‘在循环中’,以采取所有对通知和执行总统启动和终止核武器使用的决定至关重要的行动。”此外,根据该法案的公告,国防部表示,如果没有“有意义的人类控制”,任何联邦资金都不能用于通过自动化系统发射核武器。
这项拟议中的立法出台之际,生成性人工智能的力量,包括像ChatGPT这样的聊天机器人,正越来越多地成为公共话语的一部分。但是Lieu并没有忘记“有趣的聊天机器人反应”和“对人类的潜在生存威胁”之间的超现实光谱。他告诉PopSci,他当然从未想过自己的公民责任包括制定立法来避免天网场景。
作为一名自称“正在恢复计算机科学专业”的学生,刘说他对人工智能程序现在能完成的事情感到惊讶。“语音识别现在非常惊人。面部识别现在非常惊人,尽管它对皮肤较黑的人来说更不准确,”他说。他指的是长期记录在案的算法偏见模式。
然而,在过去一年发布的生成式AI程序(例如OpenAI的GPT-4)中,Lieu开始看到了潜在的危害。
[相关:“人工智能教父”退出谷歌,公开谈论快速新兴技术的危险。]
“它在创造信息和预测情景,”他在谈到现有技术时表示,“这导致了不同的担忧,包括我的观点,即人工智能,无论它变得多么聪明,都不应该对核武器进行有效控制。”
Lieu认为,开始讨论人工智能法规以减少三个主要后果至关重要:第一,虚假信息和其他“对社会有害”的内容的扩散第二,控制人工智能,虽然人工智能不会对人类构成生存威胁,但“仍然可以直接杀死你”他提到了旧金山2022年11月的多车相撞事故,事故造成多人受伤,据称是由特斯拉参与其有争议的自动驾驶模式造成的。
“当你的手机出现故障时,它的时速不会达到每小时50英里,”他说。
最后,还有“可以摧毁世界的人工智能,字面意思,”Lieu说。这就是他认为《自主人工智能阻止核发射法案》可以提供帮助的地方,至少在某种程度上是这样。本质上,如果该法案成为法律,人工智能系统仍然可以提供关于核事件的分析和战略建议,但最终决定权将牢牢掌握在人类手中。
[相关:战术核武器短暂但可怕的历史。]
刘说,展望未来,需要有一个更大的监管方法来处理人工智能问题,因为国会“没有带宽或能力在每一个应用程序中监管人工智能”他对联邦机构商定的一套人工智能风险标准持开放态度,或者可能是一个专门研究生成性和未来先进人工智能的独立机构。周四,拜登政府公布了向旨在监测和监管人工智能发展的新研究中心提供1.40亿美元资金的计划。
当被问及他是否担心社会面临新的“人工智能军备竞赛”时,刘承认这“当然是可能的”,但指出当前核条约的存在。刘说:“是的,有一场核武器军备竞赛,但目前不是全面军备竞赛。因此,不可能有一场全面的人工智能军备竞赛。”
“各国都在关注这一点,希望他们能聚在一起说,‘有些事情我们不会让人工智能做。’”
美国立法者说,人工智能永远不应该能够发射核武器