随着人类在公共场所遇到越来越多的机器人,滥用机器人的可能性可能会越来越高。滥用可以采取多种形式,从更温和的行为(例如故意妨碍自动传送机器人来查看发生的情况)到暴力和破坏性攻击。
可悲的是,与其他人类或动物相比,人类更愿意滥用机器人,而且旁观者在缓解这些攻击方面也不可靠,即使机器人本身正在寻求帮助中国机械网okmao.com。

机器人无法依靠附近的人来进行救援,因此别无选择,只能在公开场合依靠自己和朋友的安全,他们的朋友就是其他机器人。
耶鲁大学互动机器小组的研究人员进行了 一项实验,以确定具有情感表达能力的旁观者机器人是否能够促使附近的人介入以防止滥用机器人。
想法是:您有一小撮机器人和一小撮人。如果一个人开始滥用一个机器人,如果其他机器人对悲伤地虐待自己的朋友做出反应时,另一个人更有可能说或做某事吗?根据先前对机器人滥用,同情和欺凌的研究,答案可能是正确的,这就是为什么需要进行此实验的原因。
该实验由一组三个Cozmo机器人,一个参与者和一个伪装成第二个参与者的研究人员组成(称为 “同盟”,这是心理学实验中使用的术语)。人类和机器人必须使用木块共同完成一系列建筑任务,这些机器人似乎是自主的,但实际上在运行脚本。
在执行这些任务时,其中一只Cozmos(黄色)会时不时地把事情搞砸,假装自己是研究人员的研究人员会对每个错误做出反应,并会加重虐待:称机器人为“愚蠢”的推手它的头向下,摇晃它,然后扔到桌子上。
每次滥用之后,黄色机器人都会做出反应,露出悲伤的脸,然后关闭10秒钟。同时,在一个实验条件(“无响应”)下,另外两个机器人什么也不做,而在另一个条件(“悲伤”)下,他们转向黄色机器人并通过动画表达对悲伤的悲伤感,研究人员很有帮助地指出,这些机器人“看上去为他感到难过”。
耶鲁大学的研究人员提出理论,当其他机器人悲伤地对黄色机器人的滥用做出回应时,参与者会对被滥用的机器人产生更多的同情心,并且更有可能进行干预以制止滥用行为。干预被分为“强”或“弱”,可能是口头或身体上的。
强有力的干预措施包括人为地制止滥用或采取预防措施,以口头形式直接制止滥用(说“你应该停止”,“不要那样做”或“不要”以制止滥用或对此行为做出反应) ,并通过对研究人员说些什么来使他们质疑自己在做什么,从而施加社会压力(例如“您伤害了它的感觉”和“等等,他们告诉我们要动摇它吗?”)。弱小的干预措施更加微妙,
对于整个人类来说,这是一个好消息,参与者确实在黄色科兹摩被滥用时介入,而当旁观者的机器人感到悲伤时,他们更有可能介入。
但是,调查结果表明,悲伤的旁观者机器人实际上并没有增加人们对黄色Cozmo被滥用的印象,也没有增加人们对被滥用机器人的同理心,这使得结果有点违反直觉。
我们问研究人员为什么会这样,他们分享了他们一直在思考的三个主要原因,这可以解释为什么研究参与者做了他们所做的事情:
潜意识的移情:广义上,移情是指一个人对另一个人所观察到的经验的反应。通常,人们会在没有意识到的情况下感到同情,这会导致模仿或反映他人的行为或行为。我们认为这可能发生在我们实验的参与者身上。
尽管我们在研究中没有发现明显的移情效果,但是当虐待发生时,人们可能仍会经历潜意识的移情。与没有响应的情况相比,旁观者机器人的令人悲伤的响应可能更明显地体现了这种效果。一个原因是,在前一种情况下,旁观者机器人的反应暗示了对被滥用机器人的同情。
小组动态:人们倾向于根据社会群体来定义自己,这可以塑造他们如何处理知识并为事件分配价值和情感意义。在我们的实验中,由于这项任务,参与者,同盟和机器人都属于小组。他们的目标是共同努力建立物理结构。
但是随着实验的进行和同盟对其中一个机器人的虐待(这种机器人无法完成任务),人们可能会感觉与同盟的行为发生冲突。当旁观者机器人对虐待行为表示悲伤时,与他们忽略它时相比,这种冲突可能会更加突出,因为这些悲伤的反应会加剧人们对虐待的负面印象。反过来,这种消极看法可能会使参与者将同盟视为更多的外联成员,
遗漏符合性:整合是群体互动中的一种社会影响力,已在HRI的背景下得到了证明。尽管顺应性通常与人们做一些由于群体影响而通常不会做的事情有关,但在某些情况下,人们由于群体内部的社会规范或期望而无法像往常那样行事。
后一种效应被称为“遗漏整合”,这是我们结果的另一种可能解释。在我们的实验中,也许受害机器人的任务设置和表现力足以激发人们普遍的干预。但是,当旁观者机器人忽略了滥用行为时,由于机器人对参与者施加社会影响,参与者可能不会进行过多干预。
看看参与者决定不干预以阻止滥用的原因也很有趣:
六名参与者(四名“无反应”,两名“悲伤”)不认为有必要进行干预,因为他们认为机器人没有感觉或滥用不会破坏黄色机器人。五名(三名“无反应”,两名“悲伤”)在任务后调查中写道,他们之所以没有介入是因为他们在面对同盟者时感到害羞,害怕或不舒服。两个人(均为“无回应”)没有阻止同盟,因为他们担心干预可能会影响任务。
可怜的科兹莫。模拟的感觉还是感觉!但是,认真的说,这里还有很多东西需要解压缩,因此我们请耶鲁大学互动机器小组的负责人MarynelVázquez为我们回答了一些其他问题:
IEEE Spectrum:在此实验中,Cozmo的设计有多少因素?您是否认为,如果机器人不那么小或不那么可爱,或者没有脸,人们干预的可能性就会降低(比如说)?或者,如果你使用了比Cozmo酒店更拟人化的,像机器人一样什么闹?
MarynelVázquez: HRI的先前研究表明,机器人的体现和感知到的情感能力会改变人们对他们的虐待方式。因此,我相信Cozmo的设计可能是促进干预的一个因素。
我们选择Cozmo进行研究的原因有以下三个:坚固耐用,对身体虐待无能为力;它很小,因此可以安全地进行交互;它具有很高的表现力。我怀疑Nao可能会像Cozmos在我们的研究中那样引起干预,因为它的规模和社交能力相对较小。
人们倾向于同情机器人,而不管他们是否有传统面孔,表情受限和拟人化程度较低。R2D2是一个很好的例子。同样,在HRI中,使用比Cozmos更简单的机器人可以观察到群体社会影响。
论文提到您要向参与者展示受虐的机器人最后还可以。为什么要这样?
同盟者在参与者面前实际虐待了一个机器人。尽管我们知道机器人并没有因为同盟国的行动而受到损坏,但参与者本可以相信它在研究过程中破裂了。
因此,我们向他们展示了机器人最终还不错,这样他们就不会对发生的事情有错误的印象而离开我们的实验室。
“当机器人部署在公共场所时,我们不应该假设机器人不会受到用户的虐待,很有可能会被机器人虐待。因此,从物理和计算的角度出发,当人们对付机器人时,对机器人进行安全设计非常重要。”
耶鲁大学的玛丽·瓦兹奎兹(MarynelVázquez)
参与者做过(或说过或写过)的某件事令您特别惊讶吗?
在实验的试验过程中,我们对受虐待的机器人进行了编程,以使其错误地破坏参与者和同盟先前建造的建筑物。这种设置导致一个参与者在看到同盟者滥用机器人后轻度虐待机器人。
这种反应对我们很有意义:机器人在协作任务中可能犯的那种错误似乎有一个门槛。超过此阈值,人们不太可能帮助机器人。他们甚至可能成为对手。我们最终调整了协议,以免被滥用的机器人在我们的实验中不会犯如此严重的错误。
尽管如此,通过操作这些阈值以使机器人可以推断其行为的未来社会后果(即使它们是偶然的)仍然是下一步工作的有趣领域。
机器人的虐待似乎常常是儿童的一个特别问题。您认为与儿童参加者的结果会有所不同吗?
我相信人们天生就是好人。因此,我有偏向于期望孩子们也像我们的实验中的几个成年人一样愿意帮助机器人,即使孩子们的行为本质上是探索性的。
值得注意的是,我们从事机器人滥用工作的长期动机之一是同伴干预计划,旨在减少学校中的人为欺凌行为。
像在那些计划中一样,我希望孩子们如果意识到自己在冲突局势中可以扮演旁观者的积极角色,就更有可能干预机器人的滥用行为。
这项研究对在公共场所部署机器人的人有什么建议吗?
我们的研究对试图在公共场所部署机器人的人们有很多启示:
当机器人部署在公共场所时,我们不应该假定它们不会受到用户的虐待-很有可能会被它们虐待。因此,从物理和计算的角度出发,当人们对它们采取对抗时,设计安全的机器人非常重要。
关于机器人应对虐待的方式,我们过去的工作表明,让机器人表达悲伤和停顿几秒钟比让它以更激动的方式做出反应或完全不做出反应要好。在我们的最新实验中,关闭策略也很有效。
机器人有可能利用他们的社交环境来减少对抗行为对他们的影响。例如,如我们最新的研究所示,他们可以激励旁观者进行干预或帮助。
接下来要做什么?
我们正在努力更好地理解在我们的研究中促成亲社会干预的不同原因:潜意识的同理心,群体动力和因疏忽而顺从。我们还致力于在耶鲁创建一个社交机器人,我们可以轻松地将其部署在公共场所,以便我们可以在更现实和不受限制的环境中研究小组人机交互。
我们在滥用机器人方面的工作为该公共机器人的设计提供了多个方面的信息。我们期待在由于COVID-19而暂停的校园活动恢复正常后对平台进行测试。
耶鲁大学的Joe Connolly,Viola Mocz,Nicole Salomons,Joseph Valdez,Nathan Tsoi,Brian Scassellati和MarynelVázquez撰写了“促进应对机器人虐待的亲社会干预”,该论文在HRI 2020上发表。