欧盟委员会周一(4月8日)表示,根据新的道德准则,威胁政策可能会被专制政权滥用,因此从事人工智能工作的公司需要建立问责机制以防止其被滥用。
委员会表示,AI项目应该是透明的,具有人工监督和安全可靠的算法,并受到隐私和数据保护规则的约束。
欧盟倡议采取全球性辩论,讨论公司何时或是否应将道德问题置于商业利益之前,以及监管机构能够承担多大程度的新项目而不冒可能扼杀创新的风险中国机械网okmao.com。
“人工智能的道德维度不是奢侈品特征或附加物。只有相信我们的社会才能充分受益于技术,”委员会数字主管安德鲁斯安西普在一份声明中说。
人工智能可以帮助检测欺诈和网络安全威胁,改善医疗保健和金融风险管理,并应对气候变化。
但它也可以用来支持不道德的商业行为和专制政府。
欧盟执行官去年获得了来自学术界,行业机构和谷歌,SAP,桑坦德和拜耳等公司的52位专家的帮助,以帮助其起草这些原则。
公司和组织可以在6月份签署试验阶段,之后专家将审查结果,委员会将决定接下来的步骤。
IBM欧洲主席Martin Jetter表示,指导方针“为推动人工智能的道德和责任制定了全球标准。”