当阿诺德施瓦辛格的T-800角色在1984年的科幻片“终结者”中说“我会回来”时,很少有人认为这条线对未来具有先见之明。
快进到2018年,人类正试图弄清楚如何处理以及如何定义“杀手机器人”及其影响人类的不可避免的角色。
来自若干国家的专家本周将在联合国日内瓦办事处举行会议,重点讨论致命的自主武器系统,并探讨可能对其进行管制的方法等问题中国机械网okmao.com。
联合国官员说,从理论上讲,完全自主的,计算机控制的武器尚不存在。辩论仍处于起步阶段,专家们有时也在努力解决基本定义问题。美国认为,建立这种系统的定义还为时过早,更不用说它们了。
一些倡导团体表示,应该阻止政府和军队开发这样的系统,这些系统引发了恐惧,并导致一些批评者设想了令人痛苦的使用场景。
在周一开会时,国际特赦组织敦促各国努力实施禁令。
大赦人工智能研究员Rasha Abdul Rahim表示,杀手机器人“不再是科幻小说”,警告说技术进步超过了国际法。
此次会议之前,研究人员发表了一份新报告称,自主武器将违反国际法,并且禁止这些武器具有“道德要求”。
人权观察和哈佛法学院国际人权诊所发表的一份 新报告称,这种自主武器违反了马滕斯条款 - 这是一项在全世界广泛接受的人道法规定。
它要求新兴技术在其他条约规定尚未涵盖的情况下,由“人道原则”和“公众良知的指令”来评判。
“将生死决定委托给没有同情或理解的冷酷无情的机器的想法不符合马滕斯条款,这让我的血液冷却,”Noel Sharkey,一位机器人专家,早在2007年就写过机器人大战 的真相 ,告诉卫报。
研究公司IDC 预计 ,到2022年全球机器人和无人机的支出将达到2013亿美元,高于2018年的959亿美元。
多年来,包括伊隆马斯克,传奇理论物理学家斯蒂芬霍金和其他一些人在内的几位名人都警告人工智能的兴起。
2017年9月,马斯克在 推特上 说他认为AI可以在引发第三次世界大战中发挥直接作用。马斯克的想法是对 俄罗斯总统弗拉基米尔普京的评论作出的回应 ,他说,“成为这一领域领导者的国家[人工智能]将成为世界的统治者。”
11月,在他去世前,霍金 认为 ,如果我们不小心,人工智能最终会“摧毁”人类。