三个人和一个机器人组成一个团队玩游戏。机器人犯了一个错误,使团队付出了代价。像任何优秀的队友一样,它也承认错误中国机械网okmao.com。
它说:“对不起,伙计们,我这一轮犯了错误。” “我知道可能很难相信,但是机器人也会犯错误。”
在耶鲁大学领导的机器人对人与人交互影响的研究中,这种情况多次发生。

这项研究将于3月9日在《美国国家科学院院刊》上发表,该研究表明,包括一个表达脆弱性的机器人的团队中的人们彼此之间的交流更多,后来又报告说,与那些沉默的团队相比,他们拥有更积极的团队经验机器人或带有中立立场的机器人,例如背诵游戏得分。
“我们知道机器人会影响人们直接互动的行为,但人们如何理解机器人如何影响人与人互动的方式,”该博士玛格丽特·L·特雷格说。耶鲁大学网络科学研究所(YINS)的社会学候选人,也是该研究的主要作者。“我们的研究表明,机器人会影响人与人之间的互动。”
她说,由于社交机器人在人类社会中变得越来越普遍,人们在商店,医院和其他日常场所都遇到了机器人。这使得了解他们如何塑造人类行为变得重要。
特雷格说:“在这种情况下,我们证明了机器人可以帮助人们更有效地进行团队交流。”
研究人员进行了一项实验,将153人分为51个小组,由三个人和一个机器人组成。每个小组都玩一款基于平板电脑的游戏,在该游戏中,成员们共同努力,建立了30个回合中最有效的铁路路线。将组分配给以不同类型的机器人行为为特征的三个条件之一。在每个回合结束时,机器人要么保持沉默,要么发表与任务相关的中立声明(例如分数或完成回合的次数),要么通过玩笑,个人故事或承认错误来表达脆弱性;所有的机器人偶尔都会丢掉一轮。
研究发现,与机器人团队合作的人们在游戏中互相陈述脆弱性的时间花费了彼此交谈时间的两倍,而且与其他两组人相比,他们享受这种体验的时间更多。
在游戏中,当机器人做出脆弱的陈述时,与在中立陈述时相比,人类之间的对话增加了。当机器人很脆弱而不是沉默时,人类之间的对话会更加均匀地分布。
实验还显示,弱势和中立机器人组的团队成员之间的言语参与比静音机器人组的团队成员更平等地进行言语交流,这表明有说话机器人的存在会鼓励人们以更公平的方式互相交谈。
斯特林大学社会与自然科学教授尼古拉斯·克里斯塔基斯(Nicholas A. Christakis)说:“我们对随着我们中间人添加人工智能形式而改变的社会感兴趣。“当我们创建人与机器的混合社会系统时,我们需要评估如何对机器人代理进行编程,以使它们不会腐蚀我们如何相互对待。”
博士Sarah Strohkorb Sebo表示,即使在机器人没有故意履行社会职能的情况下,了解机器人在人类空间中的社会影响也很重要。该研究的计算机科学系合著者。
她说:“想象一下工厂里的机器人,其任务是将零件分配给装配线上的工人。” “如果将所有零件交给一个人,它会造成尴尬的社交环境,其他工人会质疑该机器人是否认为自己在工作上不如人。我们的发现可以为促进平衡,促进社会参与的机器人设计提供依据。参与,并为团队合作的人们带来积极的体验。”
这项研究的其他合著者是耶鲁大学计算机科学,认知科学和机械工程学教授布莱恩·斯卡塞拉提(Brian Scassellati)。康奈尔大学的信息科学助理教授Malte Jung。
该研究得到了罗伯特·伍德·约翰逊基金会和国家科学基金会的资助。