本文来自微信公众号:nextquestion (ID:gh_2414d982daee),翻译:vicky,头图来自:《银翼杀手2049》
(资料图)
自2015年以来,移动心理健康应用程序Koko一直在尝试为有需要的人提供众包服务。给Koko发消息,告诉它你对某个工作问题感到内疚,几分钟后你就能得到富有同理心的回复,它还会给一些积极的应对建议——这也许很笨拙,但毫无疑问是人性化的。
在你等候的时候,这个应用程序也可能邀请你回复另一个人的困境。为了帮助你完成这项任务,一个名叫Kokobot的助手会建议你使用一些简单的开场白,比如“我也有过同样的经历”。
但在去年10月,一些Koko用户可以选择接收来自Kokobot的更全面的建议。居住在加利福尼亚州蒙特雷市的Koko联合创始人罗伯·莫里斯(Rob Morris)表示,接收这些建议之前会有一个免责声明:“虽然我只是一个机器人,但如果是我,可能会这样回复。”在发出回复之前用户能够以他们认为合适的方式编辑或修改Koko建议的回复。
用户不知道的是,这些回复是由GPT-3编写的。GPT-3是一种强大的AI工具,经由庞大的书面文字训练集训练后,它可以处理和生成自然文本。但当莫里斯在推特上谈论这个尝试性举措时,却饱受批评。对此,他感到十分惊讶,“我从未想过会引起如此激烈的讨论。”
70年来,人们一直在尝试实现自动化的心理健康治疗,其中,对不同形式的聊天机器人的探索约有60年。现在,我们亟需提高这些工具的效能,兑现承诺。据估计,全球每10万人中平均只有4名精神科医生;而在大多数低收入和中等收入国家,这个数字还要低得多。
认识到这一差距后,智能手机应用程序开发人员已经构建了数千个在某种程度上起到心理治疗作用的移动端程序。据估计,截止2021年,市面上约有一到两万款移动心理健康应用程序。但是,美国达特茅斯学院技术与行为健康中心的生物医学数据科学家尼古拉斯·雅各布森(Nicholas Jacobson)表示,此类应用程序大多缺乏严谨科研证据的支持。将GPT-3这样的大型语言模型及相关聊天机器人ChatGPT整合进应用中是一种新的做法,但却令许多人感到担忧。
一些人担心隐私和透明度会受到更大的威胁,或者担心治疗方案会被扁平化以适应数字化的趋势。还有人担心安全和法律责任问题。据报道,今年早些时候,一名比利时男子曾与名为Eliza的AI聊天机器人分享自己的气候焦虑,但在数周后自杀。他的妻子认为,如果他没有使用这项技术,现在可能尚在人世。这款机器人由位于加利福尼亚州帕洛阿尔托的Chai Research公司开发,该公司未对此事做出任何回应。
美国印第安纳大学人类科学史学者汉娜·泽文(Hannah Zeavin)警告说,心理健康护理行业如履薄冰。它既引人注目,又脆弱不堪,因为这个行业是出了名的“喜欢打破陈规”。虽然这项技术已经累积发展了几十年,但人们对新兴AI工具的兴趣不断膨胀,可能会使其超负荷增长。
一、自动化疗法纵览
Chai Research公司的Eliza聊天机器人,其名字来自计算机科学家约瑟夫·魏岑鲍姆(Joseph Weizenbaum)在1966年创建的早期自然语言处理程序。魏岑鲍姆设计的初心是模仿一种名为罗杰斯疗法(Rogerian therapy)的心理治疗法,该治疗方法的根本观点是:人们有能力解决自己的心理问题,他们只是未能合理地利用和激活自己的潜力。魏岑鲍姆设计的Eliza会接收到人类输入的信息,并鹦鹉学舌似地给出一个回复。选用罗杰斯疗法并不是因为他多么执着于这种治疗方案,而是因为它易于编程。此外,他认为Eliza也许能够证明他的假想——人类与机器之间的沟通是流于表面的。
然而,令他惊讶的是,Eliza在用户群体中反响良好。许多用户赋予了其人格,并且经常渴望与“她”交谈。泽文于2021年出版了一本名为《距离疗法》(The Distance Cure)的书,书中详述了Eliza之后基于聊天机器人打造虚拟心理治疗师的诸多尝试。因为传统精神分析高度依赖治疗师与患者之间的复杂关系,让心理治疗变得更加经济实惠的同时触及更多有需要的人群,成为行业发展趋势,而这些项目与之不谋而合。二十世纪后半叶,阿尔伯特·艾利斯(Albert Ellis)、肯尼斯·科尔比(Kenneth Colby)和亚伦·贝克(Aaron Beck)等心理学家都在寻求一种以结果为导向的疗法——它可以被编入工作手册、录制成磁带或在书店自我疗愈类书籍专区进行展示。
这些研究人员的探索最后殊途同归,逐渐发展出了认知行为疗法(CBT)。该疗法认为心理问题部分是由于适得其反的思维模式造成的,可以通过改善应对策略将其影响降到最低。
随后,包括科尔比在内的一些心理学家试图通过用于治疗的聊天机器人和阶梯式的数字程序来实现CBT的自动化。魏岑鲍姆设计的Eliza和随后出现的众多数字化心理治疗师为今天开发自动化治疗应用程序的人提供了宝贵的经验教训:人们很容易向无生命的治疗师敞开心扉;在很大程度上,使用者的体验取决于他们对平台的期望值;在某种程度上,机器人与人类交流的语言总是在最佳疗效和编程合理性之间做出妥协。
二、便携式诊察台
现在,有成千上万的手机应用程序能够充当“导师”或“伴侣”的角色,或是提供“改善情绪”的服务。这类应用程序在宣传营销时小心翼翼,避免某些可能需要获得美国食品药品监督管理局(FDA)等健康机构批准的措辞。即使符合FDA对医疗设备软件的定义,这些应用程序通常也无需提供任何证明其安全性或有效性的数据,只要它们能够证明自己与已上市产品具有实质等效性即可获得批准。在这种情况下,许多应用程序虽然暗示具有科学功效,但却无需提供实质性证据。
泽文表示,许多应用程序很快就采用了CBT疗法,因为CBT疗效已被广泛认可,因此它们会声称自己是有科学依据的产品。然而,一项针对117个面向抑郁症患者的应用程序调查发现,在十几个声称自己是基于CBT疗法设计的应用程序中,只有15%贯彻执行了相关治疗原则。遵循度较低可能是因为这些应用程序融入了多种疗法的原则和练习。但另一项针对心理健康应用程序疗效宣传的分析发现,在引用了具体科学方法的平台中,有三分之一是未经验证的技术。还有一项调研发现,只有6.2%的心理健康应用程序会公开疗效数据。
雅各布森表示:“市场上绝大多数的应用程序都没有做过产品测试。”这并不是说心理健康应用程序的疗效是没有科学依据的。哈佛大学医学院数字精神病学部主任约翰·托鲁斯(John Torous)认为,有些应用程序表现得更好,用户不仅参与度更高,也能不断改善自己的状况,而这些应用背后通常都有人类心理治疗师提供引导或辅导。一些荟萃分析显示,这些获得“人类引导”的数字心理健康项目的效果与传统疗法相当,甚至更胜一筹。
而支持非引导式应用程序的有力证据要少得多。这类应用确实也有一定的科研基础,但托鲁斯认为,未经严格控制,许多研究成果会受到数字安慰剂效应的影响,即人们往往会倾向于信任自己的设备和技术,从而夸大一款应用的实际功效。
三、自动化心理治疗师
Koko并不是第一个在心理健康领域应用AI技术的平台。总的来说,基于机器学习的AI技术已经在心理健康领域得到了三方面的应用与研究。
第一个应用是使用AI来分析治疗干预措施,以对其进行微调。有些平台会利用心理咨询的记录来训练自然语言处理的AI模型,其中比较知名的是Lyssn和ieso。前者是美国华盛顿大学的科学家们开发的程序,能够基于对话双方所表达出的同理心、CBT干预治疗的应用等55个指标,来分析对话。后者来自英国剑桥,是一个基于文本的心理治疗服务平台。该平台已经分析了超过50万次的心理咨询,并通过跟踪咨询结束后的效果来确定最有效的干预措施。两者本质上都是为数字治疗师记录了每次诊疗的表现,都旨在最终提供一个实时的工具:一部分扮演咨询助理的角色,还有一部分充当评分监督员。
AI的第二个应用是在诊断领域。一些平台可以通过扫描一个人的病历,发现此人有自残或自杀的念头,如针对美国退伍老兵的REACH VET项目。托鲁斯表示,诊断工作可能是AI在心理健康领域最具前景的应用方式,尽管大多数平台刚起步的时候需要更多的评估。有些平台已经陷入了困境。今年早些时候,MindStrong,一个已经诞生10年的应用程序申请了破产。该公司设立的初衷是利用AI来识别抑郁症的早期标志物,尽管早期投资者们对此热情洋溢,并且其中一个联合创始人还是知名科学家——美国国家精神卫生研究所的前所长汤姆·因泽尔(Tom Insel),该公司还是没能逃过破产的命运。
AI的最后一类应用可能最接近科尔比等CBT先驱所希冀的设计理念,也是让人们对Koko实验感到恐惧的地方:打造一个完全数字化的治疗师,用AI来指导治疗。尽管Koko可能是第一个使用先进的生成式AI的平台,可以创造出完全原创的对话,但其实在数年前Woebot、Wysa和Tess等应用程序就已经开始在治疗性聊天机器人中使用机器学习了。但托鲁斯表示,这些平台可能是由基于检索的决策树驱动的:本质就是一个流程图,AI通过记录对话路径的标记来判定下一步,通过一组既定的反应对其进行引导。
由AI驱动的治疗性聊天机器人需要更可靠的数据基础。Koko创始人最近在推特上宣布的新尝试缺乏公开的治疗数据,用以说明其疗效的指标也很少。它没有为此类机器人的疗效增添证据。相反,这一举措暴露了AI技术相关的伦理问题。值得注意的是,许多伦理问题并不是AI领域特有的,而是新兴技术所要共同面对的。
其中一个问题是透明度。传统的、面对面的治疗和自动化的疗法在留住病人方面都有既得利益。这些应用程序的中位留存率通常会在2周内下降到4%以下,意味着数字治疗平台有很大的改进空间。留住病人的激励手段本身就面临着十分复杂的伦理问题。拿广受欢迎的移动治疗平台TalkSpace来说,它曾要求治疗师在与病人的讨论中插入一段脚本,以宣传其视频聊天功能,这一做法遭到了抨击。治疗性AI聊天机器人在编程时优先确保病人留存率的伦理规范就更加模糊了,特别是在机器人可以学习其他用户体验的前提下。
另一个问题是隐私性。隐私是所有治疗的首要考虑因素。然而,在3月初,治疗性应用程序BetterHelp因涉嫌与广告商分享敏感用户信息而被美国联邦贸易委员会罚款780万美元。3月底,心理健康初创公司Cerebral承认将310万人的数据泄露给第三方平台,如谷歌、Meta和TikTok。
随着机器学习成为越来越多心理健康平台的基础,平台设计者们需要更多敏感数据来训练AI模型。据Mozilla基金会分析,近70%的心理健康和祷告类应用程序隐私政策都不符合标准,被打上了“Privacy Not Included(缺乏隐私)”的标签。因此,谨慎使用很有必要。
总的来说,数字治疗应用市场几乎没有明确的标准。尽管不可能每一款主打“陪伴”或“导师”的心理健康应用程序都符合适用于传统治疗师的标准,但因泽尔呼吁成立一个新的机构来监督数字心理健康工具。该行业目前所遵循的是一套东拼西凑的标准,比如美国精神病学协会等精神病学团体提出的标准,以及由非营利组织(如One Mind PsyberGuide)提出的消费者指南。
即使是借鉴循证疗法的应用程序也同样令人担忧。随着越来越多的平台转向AI,这可能进一步巩固CBT作为心理健康干预的首要选择。泽文继承了以往研究者的想法,认为探索自动化治疗可以普及心理治疗,让更多人能够及时接受治疗。但理想总是伴随着现实的挑战。理想情况下,AI技术能够让每个人接受最准确、最有效的诊断和治疗。可早在几十年前魏岑鲍姆就已经发现了自动化治疗需要做出的妥协,即如何平衡最佳疗法和最容易的编程方法。
尽管AI有望助力心理健康治疗触及更广泛的人群,但它在治疗方面的应用仍处于初级阶段,前进道路上遍布着伦理问题的荆棘。GPT-3也还没有智能到为这些问题给出一个答案,正如Kokobot的免责说明所述:“我只是一个机器人”。
(原文链接:https://www.nature.com/articles/d41586-023-01473-4:)
本文来自微信公众号:nextquestion (ID:gh_2414d982daee),翻译:vicky
标签: