作为其作为全球监管监督者的新角色,欧洲委员会 于4月21日发布了一项 提案,以规范欧盟的人工智能使用法规。
经济风险很高: 委员会 预测, 欧洲在十年间每年在人工智能方面的公共和私人投资将达到200亿欧元,而在此之前,欧洲还专门为欧洲Covid-19大流行性康复基金的数字化转型预留了高达1,340亿欧元的资金。

委员会认为其中一些也将为AI提供资金中国机械网okmao.com。此外,还要对欧盟以外但以欧盟居民为目标的AI投资进行计数,因为这些规则将适用于EU中对AI的任何使用,而不仅限于总部位于欧盟的公司或政府。
事情不会一夜之间改变:欧盟的AI规则提案是官僚,行业专家和公众咨询经过三年努力的结果,在成为法律之前必须经过欧洲议会的要求。然后,欧盟成员国通常需要花费数年的时间才能将欧盟级别的法规转化为其国家法律法规。
该提案为与AI相关的活动定义了四个层次,并对每个层次进行了不同程度的监督。第一层是不可接受的风险:某些AI用途将在公共场所被完全禁止,国家法律准予特定的例外情况,并受到额外的监督,更严格的伐木和人员监督。
可能受到最多关注的AI活动将是实时远程生物特征识别,即 面部识别。该提案还禁止修改潜意识行为和应用社会评分。 该提案建议对商业违法者的全球年度收入最高处以6%的罚款。
提案接下来定义了一个 高风险类别,该类别由系统的目的以及损害的可能性和可能性确定。提案中列出的示例包括 招聘,信用检查和司法系统。这些规则将要求此类AI应用程序使用 高质量的数据集,记录其可追溯性,与用户共享信息,并承担人工监督的责任。欧盟将根据拟议规则建立此类系统的中央注册表,并需要在部署之前获得批准。
风险有限的 活动(例如 在网站上使用 聊天机器人 或 Deepfake的活动)的监管较少,但需要警告标签,以允许用户选择加入或退出。最终,对于被认为具有最小风险的应用程序来说,这是一个层次。
当政府提出密集的新规则手册(这一页共108页)时,通常会发生这种情况,行业和公民社会团体的最初反应似乎更多是关于行业监督的存在和范围,而不是规则的具体内容。一家由技术资助的智囊团 告诉 《华尔街日报》,它可能“在欧洲建立AI变得不可行”。反过来,注重隐私的公民社会团体,例如欧洲数字版权(EDRi)在 一份声明中 表示,“监管允许公司进行自我监管的范围过大。”
“我认为该法规背后的想法之一是试图平衡风险并使人们对AI感到兴奋并重新获得信任,”英国牛津大学和位于纽约的Weizenbaum研究所的AI治理研究员Lisa-Maria Neudert说。柏林,德国。一个 2019劳埃德船级社基金会调查 发现,全球公众对均匀恐惧和兴奋有关AI之间的分裂。
Neudert说:“我可以想象,如果您有一支经验丰富的大型法律团队,这可能会有所帮助。”为了确保合规性,并且在保持启动友好性并成功遏制大型应用程序之间的规则之间可能“难以达成平衡”。公司。
AI研究人员 Mona Sloane 和 Andrea Renda 在VentureBeat 中写道,该规则在监督AI在批准和启动后如何发挥作用方面较弱,而忽略了“与AI相关的风险的一个关键特征:它无处不在,并且是新兴的,并且经常在演变在开发和部署后,它以无法预测的方式进行。”
欧洲已经在学习其全面的2018年 通用数据保护条例(GDPR) 对全球技术和隐私的影响。是的,某些外部网站仍在为欧洲人提供一个页面,告诉他们网站所有者不必费心遵守GDPR,因此欧洲人看不到任何内容。但是大多数人都找到了一种适应方法,以达到这个4.48亿人口的统一市场。
“我不认为我们应该从[GDPR]到拟议的AI规则一概而论,但是可以肯定的是,如此庞大的立法将对欧盟以外的地区产生影响,” Neudert说。对于其他地方的立法者来说,遵循范本比复制欧盟在研究,社区参与和规则制定方面的巨额投资要容易得多。
尽管科技公司及其行业集团可能对遵守初始AI规则的需求感到不满,但Register专栏作家Rupert Goodwin 建议 他们最好集中精力于组建将来会影响规则实施和实施的行业集团:“您可能已经在其中一个从事AI道德或评估的行业组织中;如果没有的话,那就考虑他们是影响力增长的种子。”