研究人员开发了一个名为XAIA的沉浸式人工智能治疗系统

AI伦理与社会6个月前发布 yundic
364 0 0

来自锡达斯-西奈的研究人员开发了一种虚拟现实(VR)人工智能心理健康支持工具,名为扩展现实人工智能助手(XAIA)。

这项研究来自Cedars—Sinai的研究人员,由Brennan M. R.明镜周刊,并发表在《自然》杂志上 NPJ数字医疗使用人工智能、空间计算和虚拟现实,让用户沉浸在平静、自然启发的环境中,在那里他们与人工智能化身进行治疗性对话。

该系统使用GPT—4为14名经历轻度至中度焦虑或抑郁的患者提供沉浸式治疗。XAIA可以在Apple Vision Pro VR头戴式设备上访问。

首席研究员Brennan Spiegel,医学博士,MSHS,在Cedars—Sinai的博客中写道:“Apple Vision Pro提供了一个进入Xaia沉浸式,交互式行为健康支持世界的门户,我只能将其描述为超越先前技术的巨大飞跃。

他接着说:“有了Xaia和Apple Vision Pro令人惊叹的显示屏,我们就能够利用这种非凡分辨率的每一个像素和所有鲜艳的色彩来制作一种沉浸式疗法,这种疗法引人入胜,非常个人化。”

为了训练人工智能,Spiegel和他的团队纳入了由经验丰富的治疗师进行的认知行为治疗(CBT)会议的转录,重点是同理心、验证和有效沟通。

人工智能的反应通过迭代测试得到了进一步完善,其中涉及治疗师扮演各种临床场景的角色。这导致系统的心理治疗沟通不断改善。

研究人员开发了一个名为XAIA的沉浸式人工智能治疗系统

研究人员使用空间计算、VR和AI(GPT—4)构建了一个沉浸式治疗聊天机器人。资料来源:自然。

与会者与AI讨论了各种主题,让研究人员记录AI对心理治疗技术的应用。总的来说,XAIA以其表达同情、同情和确认的能力而闻名,增强了治疗体验。

例如,XAIA对参与者感到被忽视的经历的同情反应是:“我很遗憾听到你以如此明确的方式感到被拒绝,尤其是当你追求对你来说重要的事情时。这一定是一次艰难的经历”。

研究人员对参与者的反馈进行了定性的主题分析,表明对人工智能的非判断性和VR环境的质量有普遍的欣赏。

一些人表示,XAIA可以提供传统疗法的有价值的替代方案,特别是对于那些寻求匿名或不愿进行面对面治疗的人。

其他人强调了人际互动的重要性,以及与人类治疗师联系的独特好处。

这项研究还确定了需要改进的领域,例如人工智能倾向于过度询问参与者,或者没有充分探索对重大生活事件的情感反应。

Brennan Spiegel详细阐述了该工具的使命,澄清说:“虽然这项技术不是为了取代心理学家,而是为了增强他们,但我们创建XAIA时考虑到了访问,确保该技术可以为跨社区提供有意义的心理健康支持。

这似乎是深入探索沉浸式治疗环境的一个有趣的起点,这肯定会让一些无法获得面对面治疗或希望在讨论中保持隐私和匿名的人受益。

用于分析治疗对话的人工智能

除了充当治疗师,人工智能还被用来分析真实治疗对话的动态。

在2023年的一项研究中,研究人员使用人工智能剥离了心理治疗过程的层面,揭示了某些言语模式可能只是理解治疗师和患者之间联系的关键

这项研究背后的驱动力源于心理治疗长期存在的困境:我们如何准确地评估和改善治疗联盟?

发表在 《iScience》杂志研究表明,人称代词和言语犹豫是如何表明治疗师和患者之间联系的深度的。

这个术语指的是治疗师和患者之间的基本关系,这是有效治疗的关键基础。

传统上,理解这种关系一直是一件主观的事情,依赖于个人帐户和第三方观察,虽然有价值,但可能会错过实际治疗过程的流体动力学。

来自西奈山伊坎医学院的研究人员看到了一个机会,可以利用机器学习来阐明是什么让治疗沟通发挥作用。

这项研究在纽约市的诊所进行,涉及28名患者和18名治疗师,他们参与了各种治疗。在治疗开始之前,患者通过在线调查反思了他们过去的治疗关系和依恋风格。

研究人员使用机器学习来分析使用自然语言处理(NLP)的会话记录,重点是“I”和“we”等代词以及“um”和“like”等非流利标记的使用。

治疗师和患者使用人称代词的方式似乎影响了这种联盟。

例如,研究发现,当治疗师频繁使用“我们”时,它并不总是像人们所期望的那样增强联盟,特别是在涉及人格障碍的情况下。这反驳了包容性语言自动加强联系的通常假设。

此外,任何一方对“我”的过度依赖都与较低的联盟评级有关,这暗示了在治疗过程中过于自我关注的潜在陷阱。

作者写道:“我们的主要发现是,治疗师和患者使用第一人称代词的频率更高(“我们”、“我做”、“我想”、“当我”)是联盟评级较低的会话特征。

一个意想不到的发现是,通常被视为对话负面标志的犹豫不决与较高的联盟评级有关,这表明停顿可以培养真实性和参与度。

先前的研究发现,停顿是真正有思想的谈话的关键部分。

用研究人员的话来说:”我们发现,患者的非流利性越高(例如,”就像,””嗯”),但治疗师不是,患者的联盟评级较高。”

研究人员还警告说,这项研究的范围和观察性意味着这些相关性并不完全可靠。

人工智能已被用于医疗环境中的语音分析,例如当伦敦大学学院和牛津大学的研究人员开发了一种 检测潜在精神分裂症的模型从语音模式。

© 版权声明

研究人员开发了一种用于检测大麻使用的AI模型

研究人员使用智能手机和Fitbit可穿戴设备的数据来确定人们何时兴奋,准确率为85%。

大麻的使用传统上是通过尿液、唾液和头发束测试来确定的。然而,这些方法需要实验室分析,在某些测试中,立即服用大麻可能不会立即明显。

来自新泽西州史蒂文斯理工学院的Sang Won Bae和她的团队旨在加快确定危险醉酒水平的过程。

在他们 研究,33名经常吸食大麻的人报告了他们在30天内的日常消费。

在此期间,参与者佩戴活动跟踪器—即Fibits—记录心率、步数和睡眠模式等指标。

与此同时,手机传感器监测他们的微动作,如手机处理模式,以评估协调性和稳定性。

在收集了初步的参与者数据后,该团队训练了机器学习模型,以识别潜在的大麻使用迹象。

当在剩余数据集上进行测试时,经过训练的模型在识别前5分钟内吸食大麻的个体方面达到了85%的准确率。

像Fitbits这样的可穿戴设备从用户那里收集了大量数据,但利用这些数据来预测某人是否处于高水平将引起巨大争议。

关于人工智能的准确性,Chung提到它依赖于参与者的自我报告,这阻碍了它在现实世界中的应用。

研究如何运作

  1. 目标: 研究人员开始寻找智能手机传感器和Fitbit相结合是否可以准确地检测急性大麻中毒的实时发作。
  2. 方法:在30天的时间里,33名年轻人报告了他们的大麻消费和相关的醉酒感觉。他们在使用大麻的15分钟内记录了自己的主观感受,并对三个半随机的日常提示进行了记录。
  3. 测量变量: 参与者在一个量表上对他们的中毒程度进行评分:”未中毒”(得分= 0),”轻度中毒”(得分= 1—3),和”中度至高度中毒”(得分= 4—10)。智能手机传感器和Fitbit测量的因素,如心率,微运动和由GPS确定的较大运动(称为宏观运动或回转半径)和噪声能量水平在其周围环境。
  4. 结果:通过使用极端梯度助推机分类器(XGBoost)对数据进行建模,研究人员可以检测到人们在最后五分钟内是否吸食了大麻,准确率为85%。

通过可穿戴设备监控人们,以确定潜在的大麻使用情况-这是一种方法 提高他们的偏执程度

© 版权声明

相关文章

暂无评论

暂无评论...