检查人类如何建立对虚拟化代理的信任

检查人类如何建立对虚拟化代理的信任
在开始实验之前,参与者需要在介绍中熟悉这两个代理

体现虚拟代理(EVA),以图形表示的3D虚拟角色,显示出类似人的行为,可能在各种环境中具有重要的应用价值。例如,它们可以用来帮助人们练习语言技能,或者可以作为老年人和心理或行为障碍者的伴侣。

德雷克塞尔大学和伍斯特工业学院的研究人员最近进行了一项研究,调查了信任对人与EVA之间相互作用的影响和重要性。他们的论文发表在Springer的国际社会机器人学杂志上,可以为EVA的发展提供信息,使人们更容易接受。

进行这项研究的研究人员之一Reza Moradinezhad对TechXplore表示:“我们的实验是在两个虚拟代理的帮助下以两个问答环节的形式进行的(每个会话一个代理)。”

在Moradinezhad及其主管Erin T. Solovey博士进行的实验中,向一组参与者展示了两组选择题,并与EVA共同回答。研究人员使用了两个EVA,分别称为代理人A和代理人B,并为每组问题分配了不同的代理人。

实验中使用的试剂行为有所不同。一个是合作的,另一个是不合作的。但是,虽然一些参与者在回答一组问题时与合作者互动,而在回答另一组问题时与不合作者互动,但其他人在两种情况下都被分配为合作者,或者在两种情况下都被分配为不合作者。

“在我们的参与者选择答案之前,当他们的光标停留在每个答案上时,特工显示出特定的面部表情,范围包括从笑着笑着点头同意同意到皱着眉头并以不赞成的方式摇头,” Moradinezhad解释。“参与者注意到,高度积极的面部表情并不总是正确答案的指标,特别是在’不合作’状态下。”

Moradinezhad和Solovey博士进行的这项研究的主要目的是更好地理解人类对EVA信任的过程。过去的研究表明,用户对计算机系统的信任程度可能会基于他们对他人的信任程度而有所不同。

“例如,一开始对计算机系统的信任通常很高,因为它们被视为一种工具,而当一种工具出现时,您希望它能按预期的方式工作,但是对信任人类的犹豫会更高因为存在更多的不确定性,” Moradinezhad说。“但是,如果计算机系统出了错,对它的信任就会迅速下降,因为它被视为缺陷,并且有望持续存在。另一方面,对于人类来说,如果已经建立了信任,则举几个例子违规行为不会严重损害信任。”

由于EVA与人类和常规计算机系统都具有相似的特征,因此Moradinezhad和Solovey博士希望了解人类如何建立对它们的信任。为此,他们密切观察了参与者从参与实验到完成实验之间对EVA的信任如何随时间演变。

“这是通过三个相同的信任调查完成的,要求参与者对两个代理(即代理A和B)进行评级,” Moradinezhad说。“第一项基线调查是在介绍性会议之后进行的,参与者在该介绍性会议中看到了界面以及代理和面部表情,但没有回答任何问题。第二项是在他们与其中一位参与者合作回答了第一组问题之后代理商。”

在第二项调查中,研究人员还要求参与者对他们的信任度进行评估,尽管他们尚未与之互动。这使他们能够在与参与者进行交互之前,探索参与者与第一代理的交互是否已经影响了他们对第二代理的信任。

“类似地,在第三次信任调查(第二套调查之后,与第二位特工合作)中,我们也包括了第一位特工,以查看参与者与第二位特工的互动是否改变了他们对第一位特工的看法,莫拉迪内扎德说。“在实验结束时,我们还对参与者进行了更开放的采访,使他们有机会分享他们对实验的见解。”

检查人类如何建立对虚拟化代理的信任
Moradinezhad(左)准备在计算机上执行任务,而Solovey博士(右)正在调整额头上的fNIRS传感器。fNIRS计算机(在后台)读取并存储传感器数据,以进行进一步分析。图片来源:Moradinezhad和Solovey。

总体而言,研究人员发现,参与者在与合作代理人回答的一系列问题中表现更好,并且对这些代理人表示出更大的信任。他们还观察到有趣的模式,即参与者首先与合作代理互动,然后与不合作代理互动时,其信任度如何变化。

“在’合作不合作’的情况下,第一个特工是合作的,这意味着它在80%的时间内帮助了参与者,” Morandinezhad说。“在第一届会议之后,参与者立即进行了一次调查,调查了代理商的可信度,他们对一级代理商的评价相当低,甚至有时可以与其他参与者给不合作代理商的评级相提并论。这与调查的结果相符。其他说人类对自动化寄予厚望的研究,甚至80%的合作都可以被认为是不可信的。”

在第一轮问答环节中,与会人员对合作代理商的评价很差,但如果他们在第二届会议中与不合作的代理商合作,他们对这些代理商的看法似乎会发生变化。换句话说,既表现出合作行为又表现出不合作行为的体验者似乎引起了对合作者的更多赞赏。

“在不限成员名额的采访中,我们发现参与者希望代理人一直在帮助他们,并且在某些问题上,如果代理人的帮助导致错误的答案,他们认为他们不信任代理人,” Morandinezhad解释说。“但是,在与第二个特工合作之后,意识到一个特工可能比第一个特工差很多,他们如参与者之一所说,与第一个特工合作非常’愿意’。这表明信任是相对的。 ,这对教育用户有关这些代理的功能和缺点至关重要。否则,他们最终可能会完全忽略代理并自己执行任务(就像我们的一位参与者的表现明显差于其他团队一样) )。”

研究人员观察到的另一个有趣的模式是,当参与者在两个问答环节中都与合作代理商互动时,他们对第一代理商的评分显着高于第二代理商的评分。这一发现在某种程度上可以通过被称为“初等偏见”的心理过程来解释。

Morandinezhad说:“原始偏见是一种认知偏见,它使人们回想起和偏爱最早出现在系列中的物品。” “对于我们的观察结果的另一种可能的解释是,平均而言,参与者在第二组问题上的表现较低,他们可能认为代理商在协助他们方面做得不好。这表明类似代理商,即使在性能完全相同的情况下,在某些条件下(例如,根据它们的出现顺序或手头的任务的难度),在信任度方面也可以有不同的看法。”

总体而言,研究结果表明,人类用户对EVA的信任是相对的,并且可以基于多种因素而变化。因此,机器人专家不应假定用户可以准确估计代理的可靠性水平。

Morandinezhad说:“根据我们的发现,我们认为将代理的局限性传达给用户很重要,以便向用户表明他们可以信任的程度。” “此外,我们的研究证明,有可能通过与另一个代理的交互来校准用户对一个代理的信任。”

将来,Morandinezhad和Solovey博士收集的发现可能会为社会机器人技术提供参考,并为开发人类用户认为更可靠的虚拟代理铺平道路。研究人员现在正在进行新的研究,以探索人类与EVA之间相互作用的其他方面。

“我们正在构建机器学习算法,可以预测用户是否会针对任何给定问题选择代理商建议的答案,” Morandinezhad说。“理想情况下,我们希望开发一种可以实时预测这种情况的算法。这将是迈向自适应,具有情感意识的智能代理的第一步,该代理可以从用户的过去行为中学习,准确地预测其下一个行为并校准自己的行为。基于用户的行为。”

在他们以前的研究中,研究人员表明,可以使用功能性近红外光谱法(fNIRS)(一种非侵入性脑机接口(BCI))来衡量参与者的注意力水平。其他团队还开发了可以根据fNIRS测量的大脑活动提供反馈的代理。在未来的工作中,Morandinezhad和Solovey博士计划进一步研究fNIRS技术在增强与虚拟代理互动方面的潜力。

“将大脑数据集成到当前系统中,不仅可以提供有关用户的其他信息,以提高机器学习模型的准确性,还可以帮助代理检测用户注意力和参与度的变化并据此调整其行为, ”莫兰迪内扎德说。“可以帮助用户做出关键决策的EVA能够根据用户的心理状态调整其建议和帮助的程度。例如,当检测到EVA时,提出的建议会更少,并且每个建议之间的延迟会更长用户处于正常状态,但是如果检测到用户感到压力或疲倦,则会增加建议的数量和频率。”

本文为作者 何斌 独立观点,并不代表 我是CIO 立场。

发表评论

登录后才能评论