苹果公司在本月早些时候宣布的一项新的儿童性虐待材料 (CSAM) 检测技术遭到强烈反对。苹果称之为 NeuralHash 的系统尚未为其十亿多用户激活,但该技术已经面临安全研究人员的热议,他们说该算法产生了有缺陷的结果。

NeuralHash 旨在识别用户设备上已知的 CSAM,而无需拥有图像或知道图像的内容中国机械网okmao.com。由于存储在 iCloud 中的用户照片是端到端加密的,因此即使是 Apple 也无法访问数据,NeuralHash 改为扫描用户设备上的已知 CSAM,Apple声称这对隐私更友好,因为它将扫描限制为只是照片,而不是扫描用户所有文件的其他公司。
Apple 通过在用户设备上查找具有相同哈希值的图像(可以唯一标识图像的字母和数字字符串)来实现这一点,这些图像由NCMEC等儿童保护组织提供。如果 NeuralHash 找到 30 个或更多匹配的哈希值,则在将帐户所有者报告给执法部门之前,会将这些图像标记给 Apple 进行人工审核。苹果表示,误报的可能性约为万亿分之一。
但安全专家和隐私倡导者表示担心,该系统可能会被政府等资源丰富的行为者滥用,以牵连无辜的受害者或操纵该系统以检测威权民族国家认为令人反感的其他材料。根据内部分发给苹果员工的一份泄露的备忘录,NCMEC 称批评者为“少数人的尖叫声”。
昨晚,Asuhariet Ygvar 将 Apple 的 NeuralHash 逆向工程为 Python 脚本,并将代码发布到 GitHub 上,让任何人都可以测试该技术,无论他们是否拥有要测试的 Apple 设备。在Reddit 上的一篇帖子中,Ygvar 表示,NeuralHash 作为混淆代码“已经存在”在 iOS 14.3 中,但能够重构该技术以帮助其他安全研究人员在今年晚些时候推出到 iOS 和 macOS 设备之前更好地理解该算法。
没过多久,其他人就修改了已发布的代码,很快就出现了第一个报告的“哈希冲突”案例,在 NeuralHash 的案例中,两个完全不同的图像产生相同的哈希。英特尔实验室的著名研究科学家Cory Cornelius发现了哈希冲突。不久之后,伊格瓦确认了这次碰撞。
哈希冲突可能是依赖密码术来保证安全的系统的丧钟,例如加密。多年来,一些著名的密码散列算法,如 MD5 和 SHA-1,在碰撞攻击使它们失效后被淘汰。
密码学专家和 Open Crypto Audit Project 创始人 Kenneth White在一条推文中说:“我认为有些人没有意识到 iOS NeuralHash 代码被发现和 [第一次] 冲突之间的时间不是几个月或几天,不过几个小时。”
当到达时,苹果发言人拒绝对记录发表评论。但在不允许记者直接或通过姓名引用高管的背景电话中,苹果公司淡化了哈希冲突,并辩称其采取的保护措施——例如在向执法部门报告照片之前对其进行人工审查——是专门设计的以防止滥用。苹果还表示,逆向工程的 NeuralHash 版本是通用版本,而不是将于今年晚些时候推出的完整版本。
表达对该技术的担忧的不仅仅是公民自由团体和安全专家。在德国国会一位资深议员致信本周苹果公司首席执行官蒂姆·库克说,该公司是走在一条“危险的道路”,并敦促苹果公司不实施该系统。