科学家发现Rekognition错误地识别了雌性和皮肤较黑的雌性
相比之下,它在试图识别肤色苍白的男性时没有犯错误
该软件受到ACLU等人权组织的广泛批评
员工和投资者已经敦促亚马逊停止向警方销售软件
亚马逊有争议的面部识别软件Rekognition面临着新的批评。
麻省理工学院媒体实验室的一项新研究发现,Rekognition可能存在性别和种族偏见。
特别是,当识别女性和肤色较深的女性的性别时,该软件表现更差中国机械网okmao.com。
当软件出现了许多女性面孔时,它错误地将其中19%标记为男性。
但对于皮肤黝黑的女性来说,结果要差得多。
在呈现的皮肤黝黑的女性中,Rekognition错误地将其中31%标记为男性。

相比之下,Rekognition在识别苍白皮肤的男性方面没有犯错误。
麻省理工学院发现,IBM和微软开发的类似软件的表现要好于Rekognition。
具体而言,微软错误地将1.5%的肤色较深的女性称为男性。
麻省理工学院研究员Joy Buolamwini去年2月进行了一项类似的研究,发现由IBM,微软和中国公司Megvii创建的面部分析软件在种族和性别偏见方面苦苦挣扎。
这项研究引起了公司的强烈反对,微软和IBM承诺重组他们的软件,以便更准确。
与此同时,亚马逊在报告后没有做出任何改变。
在向Verge发表的一份声明中,该公司称研究人员没有使用最新版本的Rekognition。
亚马逊网络服务公司深度学习和人工智能总经理Matt Wood在一篇文章中说,根据使用面部分析得到的结果,不可能对任何用例(包括执法)的面部识别准确性得出结论。声明。
专家以及该报告的作者警告说,如果面部识别软件继续存在性别和种族偏见,它可能导致种族貌相和其他不公正。
该研究的作者Buolamwini和Deborah Raji认为,除了修复软件中的偏差以确保它们得到公平使用之外,还需要做更多的工作。
他们写道,因此,面部分析技术的武器化和滥用的可能性不容忽视,即使准确度差异减小,隐私或违反公民自由的威胁也会减少。
因此,需要对政策,企业实践和道德准则进行更广泛的探索,以确保弱势群体和边缘化群体得到保护,而不会随着这项技术的发展而受到伤害。
亚马逊一再要求它停止向警方出售Rekognition。
联邦调查局被认为正在测试有争议的面部识别技术,而亚马逊被发现将服务出售给奥兰多市和俄勒冈州华盛顿县的执法机构。
据信,它还向美国移民和海关执法局(ICE)提出了这项技术。
本月早些时候,亚马逊股东给首席执行官杰夫贝佐斯写了一封信
要求他停止向警方出售该公司备受争议的面部识别技术。
股东提案要求亚马逊停止向政府机构提供名为Rekognition的产品,直到进行民事和人权审查。
在过去的几个月里,它遵循了450名亚马逊员工以及公民自由团体和国会议员所提出的类似批评。
这家科技巨头一再引起美国公民自由联盟(ACLU)和其他隐私倡导者的愤怒。
亚马逊于2016年首次发布,此后一直以低廉的价格将其出售给美国各地的几个警察部门,将华盛顿县警长办公室列为俄勒冈州的几个客户之一。
ACLU和其他组织现在呼吁亚马逊停止向执法部门推销该产品,称他们可以使用该技术“轻松构建一个系统来自动识别和跟踪任何人”。
警方似乎正在利用Rekognition检查身份不明的嫌犯的照片,并对县监狱的大头照数据库进行检查。
亚马逊的逆转记录技术如何运作?
Amazon Rekognition使软件应用程序能够检测图像中的对象,场景和面部。
它是用计算机视觉构建的,它允许AI程序分析静态和视频图像。
人工智能系统依赖于人工神经网络,它试图模拟大脑的工作方式以便学习。
他们可以接受培训,以识别信息模式 - 包括语音,文本数据或视觉图像。
Rekognition使用深度学习神经网络模型每天分析数十亿个图像。
自创建以来的更新甚至允许该技术猜测一个人的年龄。
2017年11月,其创作者宣布Rekognition现在可以检测和识别图像中的文本,在数千万张脸上进行实时脸部识别,并在挑战拥挤的照片中检测多达100张脸部。