人工智能伦理:通过标准和透明度建立信任

AI资讯 2026-01-29 11:20:43 淳于香柔

许多人对人工智能的伦理感到不确定甚至警惕。尽管如此,工程与技术研究所的一份新报告显示,人工智能已经比我们想象的要多出三倍的日常任务 研究表明,人工智能(AI)的激增让我们三分之一的人害怕未知,但我们与AI的日常互动是大多数人意识到的三倍。

平均而言,英国公众认识到人工智能在我们每天至少做一次的事情中发挥作用——无论是管理个性化播放列表、规划从A到B的最快路线,还是只是帮助写一封电子邮件。

然而,隐藏的接触点可以在搜索引擎(69%)、社交媒体(66%)和流媒体服务(51%)中找到,这些服务都单独使用人工智能,以及谷歌翻译(31%)和自动更正和语法检查器(29%)等工具。

51%的人对人工智能的未来感到紧张 尽管人工智能每天都在使用,但超过一半的人(51%)承认对人工智能的未来感到紧张——近三分之一的人对人工智能未来能做什么感到焦虑(31%)。超过三分之一的人担心隐私(36%),并认为这将导致大规模失业(39%)。

那些感到紧张的受访者这样做是因为不知道谁控制了人工智能(42%),并且无法用人工智能生成的假货来区分什么是真的或真的(40%)。他们还表示担心人工智能将变得自主和失控(38%)。并且它将超越人类智能(31%)。

但人们确实认识到并欢迎它将在改革关键部门方面发挥的作用,如制造业(46%)和医疗保健(39%),特别是医疗诊断(32%),以及应对气候变化(24%)等问题。

人工智能安全峰会:监管能否跟上步伐? 英国人工智能安全峰会于11月初举行。全球领导人齐聚一堂,讨论与人工智能相关的风险以及如何通过协调行动减轻这些风险。

研究显示,36%的英国人认为政府需要更多地规范和管理人工智能的发展。相比之下,30%对人工智能感到紧张的人认为政府监管跟不上人工智能的发展。

受访者还分享了他们对缺乏人工智能信息以及缺乏使用该技术的技能和信心的担忧,超过四分之一的人表示,他们希望有更多关于它如何工作和如何使用它的信息(29%)。

人工智能伦理:有哪些框架可用? 众所周知,人工智能具有推动创新和提高建筑、能源、医疗保健和制造业等不同行业生产力的潜力。

然而,我们必须不断发展围绕数据和人工智能应用程序的道德框架,以确保它们的安全和负责任的开发和使用。

我们需要看到人工智能系统的训练和操作更加透明——尤其是与可公开访问的大型语言模型相关,

比如ChatGPT,它部分基于用户数据来训练模型。

使用基于标准的方法来使用人工智能 我们相信我们的土木工程师建造不会倒塌的桥梁和不会倒塌的隧道。我们可以对他们有信心,因为我们知道他们在工作中遵循严格的国际公认标准。

出于同样的原因,我们信任我们的飞机、我们的供电系统和我们的家用电器。因此,我们应该使用基于标准的方法构建软件系统,尤其是那些做出决策的系统。

必须认识到人工智能已经存在了很长时间,并且已经构成了许多日常活动的基础,例如社交媒体上的面部识别、地图上的导航和个性化的娱乐推荐。

我们需要看到英国政府制定明确的规则,规定哪些数据可以和不可以用来训练人工智能系统——并确保这是公正的。这对于确保人工智能得到安全使用和帮助防止事故发生是必要的,也是维护公众信任的基础,而公众信任是人工智能能够带来的经济和社会效益的基础。

IET关于人工智能伦理的研究于2023年10月16日至18日由意见事务在一个小组中在线进行,导致来自英国各地的2,008名具有全国代表性的消费者做出回应。

要了解更多关于IET在人工智能方面的工作,请访问www.theiet.org/ai-research。

工程技术学院

电话:+44(0)1438 313311

postmaster@theiet.org

www.theiet.org

X

领英

YouTube

© 版权声明

相关文章

欧特克为全球150m学生和教育工作者提供免费软件和技术

该公司宣布,欧特克已向全球150m学生和教育工作者免费提供其软件和技术 十多年来,欧特克免费向经认证的机构和经过验证的学生和教育工作者提供其专业级工具,使他们能够获得世界各地建筑师、工程师、制造商和创造者使用的相同技术。
2026-01-29

人工智能伦理:通过标准和透明度建立信任 暂无评论