返回顶部
首页
机械 | 工程 | 工具 | 行业 | 信息 | 集合 | 诗词 | 组词 | 范文 |
 
您现在的位置:
首页 高端访谈 详细信息

对AI的道德观:新的数学观念遏制了AI偏向做出不道德且代价高昂的商业选择

2020-08-26    阅读量:30568    新闻来源:互联网     |  投稿

沃里克大学,伦敦帝国学院,EPFL(洛桑)和Sciteb Ltd的研究人员发现了一种数学方法,可以帮助监管机构和企业管理并监管人工智能系统偏向做出不道德,可能非常昂贵和破坏性商业选择的偏见-对AI的道德眼光。


人工智能(AI)越来越多地用于商业场合。考虑例如使用AI设置要出售给特定客户的保险产品的价格中国机械网okmao.com。为不同的人设置不同的价格是有正当理由的,但是“玩弄”他们的心理或购物意愿也可能是有利的。

对AI的道德观:新的数学观念遏制了AI偏向做出不道德且代价高昂的商业选择 中国机械网,okmao.com

人工智能有很多可供选择的潜在策略,但有些不道德,不仅会带来道德成本,而且会带来巨大的潜在经济损失,因为如果利益相关者发现使用了这种策略,他们将对其施加一定的惩罚-监管机构可能征收数十亿美元,英镑或欧元的巨额罚款,客户可能会抵制您-或两者兼而有之。


因此,在越来越多的决策无需人工干预的环境中,因此有强烈的动机去了解AI系统在什么情况下可能会采取不道德的策略并降低这种风险或在可能的情况下完全消除风险。


华威大学,帝国理工大学,EPFL和Sciteb Ltd的数学家和统计学家聚集在一起,帮助企业和监管机构制定新的“不道德优化原则”,并提供一个简单的公式来估算其影响。他们在2020年7月1日(星期三)在皇家学会开放科学杂志上发表的名为“不道德的优化原则”的论文中列出了全部细节。


该论文的四位作者是Sciteb Ltd的Nicholas Beale;伦敦帝国学院数学系的Heather Battey;洛桑联邦理工学院数学研究所的Anthony C. Davison;沃里克大学数学学院的Robert MacKay教授。


华威大学数学研究所的罗伯特·麦凯教授说:


“我们建议的“不道德优化原则”可用于帮助监管机构,合规人员和其他人员找到可能隐藏在大型策略空间中的问题策略。可以期望优化会不成比例地选择许多不道德策略,对其进行检查应显示在哪里问题可能会出现,因此建议如何修改AI搜索算法,以免日后避免使用它们。


“该原则还表明,可能有必要重新考虑AI在非常大的战略空间中的运作方式,以便在优化/学习过程中明确拒绝不道德的结果。”


免责声明:本文仅代表作者本人观点,与中网机械,okmao.com无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。客服邮箱:23341571@qq.com | 客服QQ:23341571
全站地图 | 二级目录 | 上链请联系业务QQ:23341571 或 业务微信:kevinhouitpro