返回顶部
返回首页
返回首页
欢迎访问  中国机械网   | 今天是   
中国机械网全新改版进行中! 我的订单 | 会员中心 | [ 登录 ] | [ 注册 ]
以更为开放的态度面对人工智能带来的变革与影响,人工智能P图工具被指涉嫌种族歧视,中国机械网,okmao.com
home 您现在的位置: 首页 >行业资讯 > 详细信息
以更为开放的态度面对人工智能带来的变革与影响,人工智能P图工具被指涉嫌种族歧视
2020年06月29日    阅读量:103    新闻来源:中国机械网 okmao.com  |  投稿

人工智能对于人类社会的变革影响引起了公共管理领域的普遍重视,但在强人工智能以及人工智能必然导致自动化、智能化社会形态的前提假设下,相关研究可能继承了技术决定论的局限思维,从而低估了人工智能对于人类社会的潜在贡献。


自然科学视角对于强人工智能的否定揭示了人工智能所具有的多种技术可能性,在此基础上从个体、组织、全球三个层面的议题重构更多强调人类自身以及人类社会活动的产物对于人工智能发展及其社会变革过程的影响,而由此启发学科、制度、政策三方面治理创新进而推动相关理论和实践以更为开放的态度面对新技术带来的变革与影响。


以更为开放的态度面对人工智能带来的变革与影响,人工智能P图工具被指涉嫌种族歧视 中国机械网,okmao.com


禹信:清华大学公共管理学院博士研究生


崔之元:清华大学公共管理学院教授、国情研究院研究员


原文载丨《中国行政管理》,2020年第3期


原文标题|人工智能与公共管理研究:技术可能性、议题重构和治理创新


一、引言


人工智能作为计算机科学领域的一个分支,近年来的技术革新和产业应用已经将其提升到了“一般性技术”的地位中国机械网okmao.com。各个学科、各个领域不仅在实践层面,更是在理论层面开始探讨人工智能技术对于人类社会形态的变革性影响与作用,以往局限于特定专业人士的讨论也随之得到了更多跨学科的关注与聚焦。


公共管理学科领域也不例外。基于政府治理的人工智能应用[1]以及人工智能应用本身所引发的治理需求[2]这两个视角,公共管理领域的学者表现出了对于人工智能的极大兴趣,对公共管理未来治理体系和治理能力创新提出了诸多分析与判断。


但另一方面,跨学科研究在促进对于特定社会现象更丰富、深入理解的同时,也可能陷入“跨”而不“融”的局限。公共管理领域对于人工智能的关注,虽然有助于弥补计算机科学研究难以注意到人工智能在公共部门领域应用可能遭遇的挑战以及人工智能应用本身伴随的治理风险的不足。


但公共管理研究者对于人工智能技术原理和应用逻辑的不熟悉,则可能使得相关问题的分析陷入自说自话的想象,缺乏坚实的理论和实践基础。


具体而言,已有研究往往将人工智能视为既定技术类型,假定人工智能技术的外生性,认为人工智能技术能够超越乃至取代人的主体性,并推动一个信息更为精确、决策更为智能的新型社会形态的形成。


在此前提假设下,部分研究认为新计划经济、透明社会、算法社会正在形成,另外的研究则聚焦在此前提下所出现的隐私权保护、算法歧视风险、社会福利再分配等议题。


上述观点都在有意无意中继承了技术决定论的思维,认为“给定时期内只有唯一一种有效率的技术”[3],该技术又必将导致某种社会形态的形成,而我们只能在该社会形态下讨论新的制度构建以保护传统公共价值。但事实上,不仅仅是技术的应用和产生影响的过程是政治性的,技术的形成过程也是政治性的。


历史上对于数控机床和纺纱机的技术形成过程的研究便是例证。相关研究曾指出,数控机床有两种可能的程序编制法,而自动化走锭纺纱机也并不必然被工厂主所吸纳并因而作为排挤工人的手段。


对于数控机床而言,虽然工程师可以一开始就给机器编制好统一程序并因而实现了管理者对劳动过程的彻底控制,但“录制加重放”的编程方式仍然给予了熟练工人很大的自主性,这两种方式分别被不同的政治环境所采用并因而产生了不同的历史后果;[4]对于自动化走锭纺纱机的应用而言,特定政治环境下成熟男工人在管理生产过程中的不可替代性仍然使得工厂主并不一定采纳自动化工具。[5]


如果认识到技术形成过程中的这种政治性,那我们便应该放弃历史必然论的思维方式,并有可能在刚开始就推动相关利益体涉入技术演变和应用进程以平衡公共利益,而不是在二次分配中再通过政府管理或政策管制的形式加以干涉。


具体到人工智能与公共管理的研究而言,我们便应该在技术形成和应用的过程中就意识到人工智能技术演进的开放性和多元性,避免形成人工智能必然将导致特定精准化、自动化、智能化社会形态的机械思维。只有在此基础上,我们对于公共管理相关问题的讨论也才能更具理论启发意义和实践指导意义——这也正是本文所试图完成的任务。


本文将从讨论人工智能的不同技术可能性入手,在此背景下分析公共管理领域研究纳入人工智能的必要性,进而梳理相关议题、提出政策和制度创新的思路与方向。



二、人工智能发展的不同可能性


根据人工智能技术实现方式的不同,人工智能一般被划分为符号学派、联接学派、进化学派、类推学派和贝叶斯学派等不同技术流派。[6]在现代人工智能60余年的发展历史中,受益于发展条件成熟程度的不同,各个技术流派在不同时代相继取得了主导地位。


例如上个世纪六七十年代机器定理证明的发展使得符号学派成为主流,而八九十年代专家系统的流行则推动了联接学派的发展。近年来,以深度学习技术的突破和大数据环境的形成为前提,建立在概率统计基础上的机器学习技术实现了性能上的突破并因而得到了普及应用。


从技术实现方式的角度对于人工智能的上述分类,固然有利于打开技术黑箱进而更为准确地把握技术实现逻辑,[7]但对于公共管理领域的研究而言,这还不足以支撑围绕人工智能到底将对人类社会带来何种变革影响的讨论。


具体而言,技术流派的分类仍然暗含了人工智能的技术决定论思想,没有指出人工智能技术与人类社会的相互影响关系,因而也不能为人工智能技术演进过程的政治经济分析提供空间。


研究视角不足带来的直接问题是难以全面理解人工智能技术发展的不同可能性,过于简化地认为人工智能将取代各类复杂的社会行为并自然带来数字化、自动化、智能化的社会形态。


但另一方面,人类社会的历史演进从来不会单方面决定于技术因素,人工智能本身也将嵌入到社会进程之中并受到其他因素的影响。正因为此,认识到不同社会因素影响下人工智能发展过程及结果的不同可能性,才应该成为公共管理学者讨论人工智能的起点和前提。


事实上,这一问题又可被具体化为“强人工智能是否可能实现”这一简洁命题。


[8]如果接受“强人工智能”纲领,那么人工智能取代类社会便成为必然趋势,而如何推动技术发展与应用也便成为公共管理和公共政策应该关注的核心议题;


反之,如果怀疑“强人工智能”论点,认为人工智能的发展和应用存在多种可能性,且将伴随着政治经济因素的不同而发生变化,那么公共管理和公共政策的讨论则自然应该纳入更多非技术因素并保留更多制度和政策创新的空间。


正是因为认识到人工智能发展是否具有多种可能性(也即“强人工智能是否可能实现”)这一问题的重要性,早在上个世纪末各领域学者便对此展开了较为丰富的讨论,较有代表性的是英国数学物理学家罗杰- 彭罗斯1989 年出版的人工智能科普读物《皇帝新脑——有关电脑、人脑及物理定律》。


[9]强人工智能的支持者认为人类社会可以且必将由人工智能所取代,现代人工智能的发起者之一马文- 明斯基甚至认为,“人类本质上就是机器”;但另一方面,彭罗斯则对此持强烈怀疑态度,并从数学、物理学、生物学等多个角度对此问题展开了科学批判。


从数学视角来看,强人工智能支持者的观点可以等效为普适图灵机的必然存在,而彭罗斯却从哥德尔不可能定理证明了一般形式化系统的不可能,从而否定了前者的必然性。具体而言,算法、图灵机或者普适图灵机是强人工智能实现的基础,其甚至也可被视为强人工智能的核心。


因为正如图灵本人所言,任何硬件达到一定程度复杂性和灵活性的机器,都等效于其他同类机器,而实现这种等效性的关键就是作为接口的软件(或算法)。


另一方面,图灵机的设计目的并非是制造一台机器(电脑),而是为了解决数学领域被称为“判决问题”的一个范围广阔的系列命题,即“是否存在能在原则上一个接一个解决所有数学问题的某种一般的机械步骤”,后者即被称为“普适图灵机”。


但彭罗斯却指出,1931 年哥德尔不可能定理指出了“数学真理的概念不能包容于任何形式主义的框架之中,而是某种超越纯粹形式主义的东西,其处于超越人为构造框架之外”。这不仅证明了数学意义上的不可计算性,也实际上宣告了普适图灵机的破产。


从生物学和物理学视角来看,彭罗斯的分析主要聚焦于对于“意识(或精神)”本质的探究。强人工智能的支持者认为,因为人脑可被算法化,所以感情、意识、精神这些被认为是人类特殊性质的“东西”都可被算法化。


在他们看来,基于大脑的生物学模型,可将大脑神经元的信息传递与处理等效为一台超级计算机数字信号的传递与处理。但在彭罗斯看来,这样的假设并不成立。一方面是因为神经元的相互连接会随时间不断改变,在生物学上这又具体是指不同神经元的突触结实际发生联络的地方经常改变;另一方面,突触结释放神经传递物质有时并不发生在突触裂,而是进入一般的细胞之间的液体,以影响非常远处的其他神经元。


前者与不确定性有关,而后者则表明了大脑活动的整体性(非局域性)。彭罗斯进一步指出,这种不确定性和整体性又与物理学领域的量子理论紧密相关。在其看来,“意识(或精神)不可能是经典世界的一部分,必须以某种方式依赖于对经典物理的特殊的偏离,而这更可能体现为量子世界”。


就后者而言,其实际上包含两个过程:首先是由决定性的薛定谔方程所控制的演化过程,此时不存在任何不确定性或随机性;而当“进行一次测量”时,便将量子效应放大到了经典水平,从而引入了不确定性和概率,也就改变了规则。由此,彭罗斯再次反驳了强人工智能支持者的观点,论证了通过算法模型来全面模拟人脑的不可能性。


正如引言部分所指出,公共管理领域围绕人工智能的已有研究,大都暗含着强人工智能的前提假设,以及认为人工智能将自然带来精准化、自动化、智能化的必然结果。彭罗斯的严谨论证,不仅否定了该假设的科学性,其也反过来证明了人工智能发展的多种可能性。


需要指出的是,本文之所以详尽引述彭罗斯的论证过程,则是试图同样以自然科学的客观论证而非社会科学的规范论证来说明强人工智能这一假设的不合理性,从而为后文进一步打开公共管理研究的思路奠定基础。


另一方面,如果接受人工智能发展具有多种可能性的前提,接下来的问题便在于如何重新调整公共管理领域研究人工智能的议题空间,跳出技术决定论的思维局限并通过更大范围、更多形式的制度或政策创新引导人工智能走向公共利益最大化的方向。



三、人工智能与公共管理研究的议题空间重构


伴随人工智能技术的普及应用,公共管理领域的相关研究近年来也呈快速增长趋势,诸多学者开始讨论人工智能带来的社会变革以及不同领域的治理应对。综合来看,已有研究大致可分为“人工智能的治理”和“基于人工智能的治理”两大方向。


前者聚焦人工智能发展和应用本身所引发的治理问题(例如算法歧视、虚假内容治理等),后者则关注传统公共管理议题借用人工智能技术所带来的变革和影响(例如人工智能推动下腐败、扶贫、公共服务等领域的治理变革)。


尽管已有研究在人工智能与公共管理的交叉领域做出了颇多努力,但基于强人工智能的前提假设仍然限制了公共管理研究议题的范围及其分析视野。


一方面,“人工智能治理”相关研究的基本出发点是将人工智能视为新的外生性技术权力,并在此前提下讨论其进入现有社会结构后引发的变革影响与治理应对。


例如算法歧视、虚假内容治理的相关研究,大都将技术作为独立主体考察其对于既有社会秩序的影响,并在假定技术本身不会发生变化的情况下考虑相应的治理变革,但这一研究思路相对忽略了人工智能技术形成和应用过程中的治理可能性。


另一方面,“基于人工智能的治理”研究,同样是假定了人工智能将实现人类社会自动化、智能化变革的必然趋势,并在此前提下讨论现有治理理念、方式的改革与创新。


例如人工智能推动下的智慧城市、智慧社会研究,大都以实现城市治理、社会治理的自动化、智能化变革为目标而强调相应技术环境、制度环境的建设与统一,但却同样忽略了人工智能本身发展的多种可能性以及在此基础上建设多元化、个性化城市治理、社会治理机制与体系的可能性。


正因为此,在放弃强人工智能的假设并认识到人工智能发展存在多种可能性的前提下,我们有必要重新反思公共管理领域人工智能研究的议题空间。从个体、组织、全球三个层面,本文提出公共管理领域围绕人工智能的研究议题重构的三个重要方面。



  一款人工智能工具能将像素化的图像转换成清晰的照片,但在发布后,该工具被指责存在种族偏见。


  这款名为Face Depixelizer的工具在Twitter上发布,供用户测试,用户发现该技术无法正确处理黑人的脸。


  该工具将贝拉克·奥巴马的像素化图像变成了一个白人男子,还有一些其他名人的例子。


  人工智能P图工具被指涉嫌种族歧视:把奥巴马P“白”了

以更为开放的态度面对人工智能带来的变革与影响,人工智能P图工具被指涉嫌种族歧视 中国机械网,okmao.com


  Face Depixelizer是基于杜克大学的一个团队开发的人工智能工具,该工具使用了一种名为PULSE的方法,该方法通过人工智能生成的高分辨率人脸图像进行搜索,以匹配那些在压缩到相同大小时与输入图像相似的图像。


  杜克大学的研究团队使用了一种带有两个神经网络的机器学习工具——一个是开发人工智能创造人脸来模仿它所接受的训练,另一个是接收输出,并决定是否有足够的说服力来将其误认为真实的人脸。


  杜克大学宣称其系统能够在几秒钟内将16x16像素的图像转换为1024 x1024像素,这是其分辨率的64倍。


  一位在推特上名为Bomze的开发人员使用该系统开发了Face Depixelizer,并于周末在社交媒体网站上分享了它。


  “给定一个低分辨率的输入图像,模型就会生成高分辨率的图像,这些图像感知起来真实,并且尺寸正确。”


  一天后,用户发现该工具在处理黑脸时并不准确。一名用户运行了一张奥巴马的像素图像,生成了一张清晰的白人男性图像。


  而另一个用户多次运行同样的图片,结果也一样。


  机器学习博主Robert Osazuwa Ness用自己的脸以及Alexandria-Ocasio Cortez和女演员Lucy Liu的照片做了一个测试。结果产生的面孔看起来是白人的。


  Business Insider指出,失败的原因可能是用于训练人工智能的数据集。


  如果输入到机器学习算法中的图像缺乏多样性,那么机器学习算法将无法正常运行。


  然而,这个概念并不新鲜,因为麻省理工学院(MIT)的研究人员在2018年发布的一份报告中指出,人工智能系统收集数据的方式往往会让它们成为种族主义者和性别歧视者。


  该论文的第一作者Irene Chen是一名博士生,她与麻省理工学院教授David Sontag和博士后Fredrik D. Johansson共同撰写了这篇论文。她说:“计算机科学家通常会很快表示,让这些系统减少偏见的方法就是设计更好的算法。”


  “但算法的好坏取决于它们所使用的数据,而我们的研究表明,更好的数据往往可以带来更大的不同。”


  举个例子,研究小组观察了收入预测系统,发现该系统将女性员工错估为低收入,将男性员工错估为高收入的可能性是两倍。



  他们发现,如果他们将数据集增加10倍,这些错误发生的频率将减少40%。


  在另一组数据中,研究人员发现一个系统预测重症监护病房(ICU)死亡率的能力对亚洲病人来说不那么准确。


  然而,研究人员警告说,现有的减少歧视的方法会使非亚裔的预测不那么准确。


  Chen说,最大的误解之一就是数据越多越好。相反,研究人员应该从那些代表性不足的群体中获得更多的数据。


  Sontag说:“我们把它看作一个工具箱,可以帮助机器学习工程师找出应该对他们的数据提出什么问题,以诊断为什么他们的系统可能做出了不公平的预测。”


标签:行业资讯今日头条机械商道机械应用人工智能市场评论机器人设备与仪器特种机器人配件与装备 工业设备
免责声明: 本文仅代表作者本人观点,与中国机械网无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。客服邮箱:service@cnso360.com | 客服QQ:23341571
今日头条Show更多
中国机械网手机版MOBILE
扫描二维码,获取手机版最新资讯 中国机械网 您还可以直接微信扫描打开
全站地图

深圳网络警察报警平台 深圳网络警
察报警平台

公共信息安全网络监察 公共信息安
全网络监察

经营性网站备案信息 经营性网站
备案信息

中国互联网举报中心 中国互联网
举报中心

中国文明网传播文明 中国文明网
传播文明

深圳市市场监督管理局企业主体身份公示 工商网监
电子标识