人类对智能机器的信任程度如何?

智能机器应该如何设计才能赢得用户的信任?

你是否对自己使用的智能机器有充分的信任感?随着智能系统在人类生活中越来越普遍,提高用户对智能机器的信任感对提高人机互动质量和人机协作有重要的意义。美国普渡大学机械工程学院的助理教授内拉?杰恩(Neera Jain)和副教授塔西拉?雷德(Tahira Reid)领导的团队就在为此不懈努力。他们设计的新型“分类模型”能够感知人类对与之合作的智能机器的信任程度。杰恩说:“随着人们与智能系统互动程度的提升,信任成为影响协同互动的重要因素。”例如,飞行员和工人经常需要与自动化系统进行交互。如果他们认为系统不够稳定,那么使用效果将受到限制。雷德补充说:“人类的信任感是人机之间实现成功互动的关键。”

杰恩等开发了两种基于分类器的经验信任传感器模型——“通用信任传感器模型”和“个人定制模型”。这些模型通过监测45名受试者的脑电波模式和皮肤的电反应来“测量”信任值。根据脑电图和皮肤的电特性变化情况,研究人员获得了与信任相关的心理生理学“特征集”。通用信任传感器模型使用的数据为所有45名受试者的同一组心理生理学特征结果。个人定制模型则是针对每名受试者专门设计的,虽然它的测试时间较通用型有所增加,但可以提高测试精度。两种模型的平均准确率分别为71.22%和78.55%。杰恩说:“这是首次用脑电图对信任进行‘实时测量’。观测并不是在特定事件后进行的,而是具有连续性和实时特征。我们希望利用反馈控制原理来设计能够实时响应人类信任水平变化的机器,从而建立和管理人机关系中的信任。为了做到这一点,需要传感器来实时评估人类的信任水平。幸运的是,我们证实心理生理测量值可以用于这一过程。虽然目前的研究还局限于单独的人-机互动,但我们希望将其扩展至人-机团队互动。”为了提高自动化程度,杰恩等引入了算法。那么,这是否意味着人类将在人-机互动中丧失主动权呢?杰恩解释说,模型系统将有一个“覆盖”功能,当用户认为情况不正常时,他们可以收回控制权。

然而,在某些情况下,人类又可能会不信任系统的处理结果是正确的,导致作出错误的判断和事故的发生。例如,某些情况下飞行员取消自动驾驶,重新使用人工驾驶的操作实际上阻碍了飞机的安全运行。杰恩说:“此时,机器对人类信任水平的实时评估就显得尤为重要了。”为了验证他们设计的方法,杰恩等要求581名志愿者在线参与模拟驾驶。模拟器由计算机识别道路障碍。在某些情况下,计算机识别正确率为100%,而在其他情况下,计算机有50%的几率错误地识别出障碍。雷德说:“因此,系统有时让你踩下刹车避免了事故,但也有可能是虚惊一场。”测试结果使研究人员能够识别出涉及人类对智能系统信任的心理生理特征,并据此建立信任传感器模型。在可靠的试验中,信任水平很高,而在错误的试验中,信任水平则较低。通过收集分析581名在线参与者的反馈,研究人员验证了这一假设。

此外,研究人员还对文化差异、性别差异等因素对信任的影响,并设计了能够根据数据预测未来信任将如何变化的动态模型。

编译:雷鑫宇

审稿:德克斯特

责编:南熙