聊天机器人能成为心理治疗师吗?只有在你希望它们成为心理治疗师的情况下才可以。
最近,人工智能公司openai的一位经理写道,她刚刚与公司的病毒式聊天机器人chatgpt进行了一次“非常情感化、个人化的对话”。lilian weng在x(前身为twitter)上发帖称:“以前从未尝试过心理治疗,但这可能就是它?”这引发了一系列负面评论,指责她淡化了心理疾病的严重性。
然而,对于weng与chatgpt的互动,可能可以通过本周在《自然机器智能》杂志上发表的一项研究中提到的安慰剂效应来解释。
来自麻省理工学院(mit)和亚利桑那州立大学的一个团队要求300多名参与者与心理健康人工智能程序进行互动,并对他们对互动的期望进行了引导。
有些人被告知聊天机器人具有共情能力,有些人被告知它具有操纵能力,第三组人被告知它是中立的。那些被告知他们正在与一个关心人的聊天机器人交谈的人,比其他组更有可能认为他们的聊天机器人治疗师是值得信赖的。
报告的合著者pat pataranutaporn表示:“从这项研究中,我们可以看出在某种程度上,ai是观察者的ai。”
近年来,一些备受关注的初创公司一直在推动提供心理治疗、陪伴和其他心理健康支持的人工智能应用程序,这是一个巨大的商机。
但这个领域仍然是一个争议的焦点。
“奇怪、空洞”
与ai威胁到其他行业一样,批评者担心机器人最终会取代人类工作者,而不是与他们相辅相成。
在心理健康领域,人们担心机器人不太可能做得很好。
“心理治疗是为了心理健康,是一项艰苦的工作,”活动家和程序员cher scarlett在回应weng在x上的初始帖子时写道。“自我调适是可以的,但不是同一回事。”
除了对ai的普遍担忧外,心理健康领域的一些应用程序最近的历史也有些问题。一款名为replika的热门ai伴侣应用程序有时被宣传为带来心理健康益处,但用户长期以来一直抱怨该机器人可能过于关注性和具有侮辱性。此外,一个名为koko的美国非营利组织在2月份进行了一项实验,为4000名客户提供使用gpt-3进行咨询,结果发现自动回复根本无法起到治疗的作用。
该公司的联合创始人rob morris在x上写道:“模拟的共情感觉奇怪、空洞。”
但是,由于不清楚他的客户是否知道他们的参与,morris后来不得不为自己辩护,因为他的实验受到了广泛的批评。
“降低期望”
巴塞尔大学的david shaw并未参与mit/亚利桑那州的研究,他告诉法新社,这些发现并不令人惊讶。但他指出:“似乎没有参与者被告知所有聊天机器人都是胡扯。”
他说,这可能是最准确的引导。
然而,聊天机器人作为心理治疗师的想法与该技术的20世纪60年代起源紧密相连。
第一个聊天机器人eliza就是为了模拟一种心理治疗而开发的。mit亚利桑那州的研究人员将eliza用于一半的参与者,将gpt-3用于另一半。尽管gpt-3的效果要强得多,但被积极引导的用户通常仍然认为eliza是值得信赖的。
因此,weng对她与chatgpt的互动感到满意并不令人惊讶——她就是该公司的员工。
mit亚利桑那州的研究人员表示,社会需要掌握有关人工智能的叙述。
该论文辩称:“向社会呈现人工智能的方式很重要,因为它改变了人工智能的体验。”“可能有必要引导用户降低或更加负面的期望。”
来源:极客网
以上是网络信息转载,信息真实性自行斟酌。











)







