您的位置:首页 >IT >

识别错误的机器人可以促进更好的人类交流

导读 三个人和一个机器人组成一个团队玩游戏。机器人犯了一个错误,让团队损失了一轮。像任何好的队友一样,它承认错误。“对不起,伙计们,这次

三个人和一个机器人组成一个团队玩游戏。机器人犯了一个错误,让团队损失了一轮。像任何好的队友一样,它承认错误。

“对不起,伙计们,这次我弄错了。”“我知道这可能很难相信,但机器人也会犯错。”

在耶鲁大学领导的一项关于机器人对人与人之间互动的影响的研究中,这种情况发生了很多次。

该研究将于《国家科学院院刊》年3月9日发表。研究表明,团队中的人类,包括一个表达脆弱性的机器人,会更多地相互交流。后来有报道称,他们比那些与沉默的机器人或发表中立声明的机器人合作的人有更积极的团队经验,比如背诵游戏分数。

医生说:“我们知道机器人可以直接影响人类与它们互动的行为,但目前还不清楚机器人如何影响人类相互接触的方式。耶鲁大学网络科学研究所社会学博士候选人,该研究的主要作者。我们的研究表明,机器人可以影响人与人之间的互动。

她说,随着社交机器人在人类社会越来越受欢迎,人们在商店、医院和其他日常场所遇到它们。这使得理解它们如何塑造人类行为变得非常重要。

“在这种情况下,”特拉格说,“我们表明机器人可以帮助人们在团队中更有效地交流。”

研究人员进行了一项实验,将153人分成51组,由三个人和一个机器人组成。每组玩一个基于平板电脑的游戏。在这个游戏中,成员们共同努力,建造了30多轮最有效的铁路路线。组被分配到三个条件中的一个,这三个条件以不同类型的机器人行为为特征。在每一轮结束时,机器人要么保持沉默,要么做出与任务相关的中性陈述(如得分或完成的回合数),要么通过笑话、个人故事或承认错误来表达脆弱性;所有机器人偶尔会输掉一轮。

研究发现,与发表脆弱演讲的机器人合作的人,在游戏中相互交谈的时间大约是前者的两倍。他们报告说,与其他两组相比,他们更喜欢这种体验。

在游戏中,当机器人做出脆弱的陈述时,人类之间的对话比他们做出中立的陈述时要多。当机器人变得脆弱而不是沉默时,人类之间的对话分布得更均匀。

实验还表明,在弱势和中立的机器人群体中,团队成员之间的言语参与比沉默的机器人群体更平等,这表明说话机器人的存在鼓励人们以更公平的方式相互交谈。

斯特林大学社会和自然科学教授尼古拉斯克里斯塔克斯说:“我们对社会将如何变化感兴趣,因为我们已经将人工智能的形式融入其中。当我们创建一个人和机器的混合社会系统时,我们需要评估如何对机器人代理进行编程,以便它们不会腐蚀我们对待彼此的方式。

一位医生说,了解机器人在人类空间中的社会影响很重要,即使机器人不是有意的社会功能。计算机科学系d级候选人,本研究的合著者。

她说:“想象一下,在工厂里,机器人的任务是把零件分发给装配线上的工人。”如果把所有的碎片都交给一个人,会造成一个尴尬的社交环境,让其他工人质疑机器人是否认为自己在这项任务中处于劣势。我们的发现可以为机器人的设计提供参考,机器人可以促进团队成员的社会参与、平衡参与和积极体验。

免责声明:本文由用户上传,如有侵权请联系删除!