返回顶部
首页
机械 | 工程 | 工具 | 行业 | 信息 | 集合 | 诗词 | 组词 | 范文 |
 
您现在的位置:
首页 系统及软件 详细信息

超级智能AI可能无法控制,甚至无法知道AI是否是超级智能的,更不用说阻止它了

2021-05-05    阅读量:31179    新闻来源:互联网     |  投稿

从理论上讲,人类可能无法控制人工智能。更糟糕的是,这项研究也使在创建这种势不可挡的AI时无法发现任何希望。 


时间表略有减少中国机械网okmao.com。至少根据一个估计,在任何这样的存在性计算推论可以为人类所用之前,还有几十年的时间。 


除了AI的新闻击败人类的游戏,如象棋,围棋和危害都来担心的是超智机比最好的人的心智希望有一天横行聪明。马德里自治大学的计算机科学家曼努埃尔·阿尔方塞卡(Manuel Alfonseca)说:“关于超级智能是否可以被控制的问题已经很老了。” “它至少可以追溯到1940年代阿西莫夫的第一部机器人法则。”


该机器人三定律,在艾萨克阿西莫夫的1942年短篇小说首次推出“搪塞”,如下所示:


机器人可能不会伤害人类,也可能因无所作为而伤害人类。

机器人必须服从人类的命令,除非这些命令会与第一定律相抵触。

机器人必须保护自己的存在,只要这种保护与第一定律或第二定律不冲突。

2014年,牛津大学人类未来研究所所长哲学家尼克·博斯特罗姆(Nick Bostrom)不仅探索了超级智能AI可能摧毁我们的方式,还研究了这种机器的潜在控制策略-以及它们可能无法正常工作的原因。


超级智能AI可能无法控制,甚至无法知道AI是否是超级智能的,更不用说阻止它了 中国机械网,okmao.com


Bostrom概述了此“控制问题”的两种可能的解决方案。一种是控制AI可以做什么,例如阻止其连接到互联网,另一种是控制AI想要做什么,例如教导其规则和价值,使其行为符合人类的最大利益。前者的问题在于,博斯特罗姆认为,超级智能机器可能会摆脱我们所能建立的任何纽带。对于后者,他从根本上担心人类可能不够聪明,无法训练出超级智能的AI。


现在,Alfonseca和他的同事建议,由于计算本身固有的基本限制,可能无法控制超级智能的AI。他们本月在《人工智能研究杂志》上详细介绍了他们的发现。


研究人员建议,任何旨在确保超级智能AI不会伤害人类的算法都必须首先模拟机器的行为,以预测其动作的潜在后果。如果这种遏制算法确实确实有害,那么就需要停止它。


但是,科学家们说,任何遏制算法都不可能模拟AI的行为并绝对确定地预测其行为是否会导致伤害。该算法可能无法正确模拟AI的行为或无法准确预测AI动作的后果,并且无法识别此类故障。


Alfonseca表示:“事实证明,阿西莫夫的第一条机器人法则是无可辩驳的,因此不可行。” 


研究人员说,我们甚至可能不知道我们是否制造了超级智能机器。这是赖斯定理的一个结果,赖斯定理本质上说,一般来说,仅通过查看程序就无法弄清楚计算机程序可能输出什么。


另一方面,还没有必要为我们未来的机器人霸主整理客房 。该研究的三个重要警告仍然给该小组的预测留下了很多不确定性。 


首先,阿方塞卡(Alfonseca)估计AI的关键时刻仍然存在,他说:“至少未来两个世纪。” 


其次,他说研究人员不知道所谓的人工智能(也称为强大AI)在理论上是否可行。“就是说,一台像我们在各种各样领域中一样智能的机器,” Alfonseca解释说。


最后,阿方塞卡(Alfonseca)说:“我们还没有证明超级智能永远无法得到控制,只是超级智能永远无法得到控制。”


尽管可能无法控制超级智能的人工智能,但应该可以控制超级智能的狭义AI —一种专门用于某些功能,而不是像人类一样能够执行多种任务的机器人。“我们已经有了这种类型的超级智能,”阿方塞卡(Alfonseca)说。“例如,我们拥有能够比我们更快地计算数学的机器。这是(狭窄的)超级智能,不是吗?


免责声明:本文仅代表作者本人观点,与中网机械,okmao.com无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。客服邮箱:23341571@qq.com | 客服QQ:23341571
全站地图 | 二级目录 | 上链请联系业务QQ:23341571 或 业务微信:kevinhouitpro