首页 > 问答

新模型感知人类对智能机器的信任

更新时间:2024-11-23 06:52:03 阅读: 评论:0

新模型感知人类对智能机器的信任

导读新的分类模型能够感知人类对与他们合作的智能机器的信任程度,这是提高互动和团队合作质量的一步。整个研究领域的长期目标是设计能够改变其

新的“分类模型”能够感知人类对与他们合作的智能机器的信任程度,这是提高互动和团队合作质量的一步。

整个研究领域的长期目标是设计能够改变其行为的智能机器,以增强人们对它们的信任。新模型是由普渡大学机械工程学院的助理教授Neera Jain和副教授Tahira Reid领导的研究中开发的。

“智能机器,更广泛地说,智能系统在人类的日常生活中变得越来越普遍,”Jain说。“随着人们越来越需要与智能系统互动,信任成为协同互动的重要因素。”

例如,飞机驾驶员和工业工人通常与自动化系统进行交互。如果他们认为系统步履蹒跚,人类有时会不必要地超越这些智能机器。

“众所周知,人类信任是人与机器之间成功互动的核心,”里德说。

研究人员开发了两种类型的“基于分类器的经验信任传感器模型”,这是改善人类与智能机器之间信任的一步。

这项工作与普渡大学的巨型飞跃庆祝活动保持一致,承认该大学在人工智能,算法和自动化方面的全球进步是普渡大学成立150周年的一部分。这是为期一年的庆祝活动创意节的四个主题之一,旨在展示普渡大学作为解决现实问题的知识中心。

这些模型使用两种技术来提供数据来衡量信任:脑电图和皮肤电反应。第一个记录脑波模式,第二个监测皮肤电特性的变化,提供与信任相关的心理生理学“特征集”。

45名人类受试者戴上无线EEG耳机并一方面佩戴设备以测量皮肤电反应。

其中一个新模型,即“一般信任传感器模型 ”,为所有45名参与者使用相同的心理生理学特征。另一个模型是针对每个人类主题定制的,从而提高了平均准确度,但代价是增加了训练时间。这两个模型的平均准确度分别为71.22%和78.55%。

这是第一次使用EEG测量来实时评估信任,或者没有延迟。

“我们正在以一种全新的方式使用这些数据,”Jain说。“我们正在以一种连续的流来看待它,而不是在特定的触发或事件之后观察脑电波。”

研究论文详细介绍了计算机协会交互式智能系统交易特刊。期刊的特刊题为“智能人机交互中的信任与影响”。该论文由机械工程研究生Kumar Akash撰写; 曾任研究生胡万林,现为斯坦福大学博士后研究员; 耆那教和里德。

“我们有兴趣使用反馈控制原则来设计能够实时响应人类信任水平变化的机器,以建立和管理人机关系中的信任,”Jain说。“为了做到这一点,我们需要一个传感器来实时估计人类信任水平。本文提供的结果表明,心理生理学测量可以用来做到这一点。”

人类对机器的信任问题对于“人 - 代理集体”的有效运作至关重要。

“未来将围绕人类代理集体建立,这需要人与机器之间的有效和成功的协调与合作,”Jain说。“假设有一大群机器人在自然灾害中协助救援队。在我们的工作中,我们只处理一个人和一台机器,但最终我们希望扩展到人和机器团队。”

已经引入了算法来自动化各种过程。

“但我们仍然有人在那里监视正在发生的事情,”杰恩说。“通常有一种覆盖功能,如果他们认为某些东西不对,他们就可以收回控制权。”

有时这种行为是不合理的。

“在某种情况下,人类可能无法理解正在发生的事情,因此他们不相信系统做正确的事情,”里德说。“所以即使他们真的不应该,他们也会收回控制权。”

在某些情况下,例如在飞行员超越自动驾驶仪的情况下,收回控制可能实际上阻碍飞机的安全操作,从而导致事故。

“设计能够与人类建立和维持信任的智能机器的第一步是设计一种传感器,使机器能够实时估计人类的信任水平,”Jain说。

为了验证他们的方法,581名在线参与者被要求操作驾驶模拟,其中计算机识别道路障碍。在某些情况下,计算机在100%的时间内正确识别出障碍物,而在其他情况下,计算机在50%的时间内错误地识别出障碍物。

“因此,在某些情况下,它会告诉你有障碍,所以你踩刹车避免发生事故,但在其他情况下它会错误地告诉你没有障碍物时存在障碍,所以你无缘无故地打破了障碍,“里德说。

该测试使研究人员能够识别与智能系统中人类信任相关的心理生理特征,并相应地建立信任传感器模型。“我们假设信任水平在可靠的试验中会很高,在错误的试验中会很低,我们使用从581名在线参与者收集的答复来验证这一假设,”她说。

结果验证了该方法有效地引起了智能机器的信任和不信任。

“为了实时估计信任度,我们需要能够不断提取和评估关键的心理生理测量,”Jain说。“这项工作代表了人类信任传感器开发的第一次实时心理生理学测量。”

EEG耳机通过九个通道记录信号,每个通道拾取大脑的不同部分。

“每个人的脑波都是不同的,所以你需要确保你正在构建一个适用于所有人类的分类器。”

对于自治系统,人类信任可以分为三类:倾向性,情境性和学习性。

倾向性信任指的是信任的组成部分,其依赖于诸如性别和文化之类的人口统计,其具有潜在的偏见。

“我们知道可能存在细微差别,应该加以考虑,”里德说。“例如,女性与男性的信任度不同,信任也可能受到年龄和国籍差异的影响。”

情境信任可能受到任务的风险或难度水平的影响,而学习则基于人类过去对自治系统的体验。

他们开发的模型称为分类算法。

“这个想法是能够使用这些模型来分类,当有人可能感到信任而非可能感到不信任时,”她说。

Jain和Reid还调查了倾向性信任以解释性别和文化差异,以及能够根据数据预测未来信任将如何变化的动态模型。

本文发布于:2022-09-01 14:59:52,感谢您对本站的认可!

本文链接:https://www.bsyshop.com/ask/xinxi/78/77130.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:模型   人类   机器   智能
相关文章
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2022 Comsenz Inc.Powered by © 站长QQ:55-9-10-26