研究表明,共情作用与积极引导正是医生帮助患者缓解痛苦、提高术后康复速度以及减少精神类药品用量的重要方法。但道理听起来简单,单凭一句“吃了药就好了”绝对达不到这样的效果。根据最新研究结果,其中的原理其实非常复杂。
积极的信息通常需要重复出现,配合笃定的证据以及极具针对性的表达场景。另外,传达者最好既权威又富有同情心。虽然我们在研究中无法确定积极信息中最有效的组成部分是什么(样本量过小),但通过结果推断,不符合以上几项基本要素的积极信息——包括针对性不强、医生经验不足或者同理心不够——无法产生预期效果。
这些发现,对于从电话预约到“护理机器人”(负责提供医疗保健服务的AI机器人)的数字化辅助咨询方案又有何指导意义?这个问题非常重要,因为目前已经有人建议将护理机器人作为一种经济高效的解决方案,用以满足英国及其他地区不断增长的老年群体照料需求。
COVID-19疫情的肆虐加快了数字化辅助咨询的普及速度,英国卫生大臣Matt Hancock声称,疫情之后越来越多的患者不再愿意进行面对面询诊。虽然目前的在线咨询跟护理机器人还不是一回事,但背后代表的却是相同的全新交互形式。而且二者的出现时间还很短,缺少可资遵循的道德框架。
采用积极信息来帮助患者,带来了技术与道德两个层面的新难题。积极信息中的某些组成部分(「吃了这种药,你很快就会觉得舒服一些」)可以通过手机、视频通话甚至是护理机器人直接传递,但有些患者愿意相信,有些则保持怀疑。对于后者,他们可能需要亲眼看到、至少是通过视频看到自己的主治医师,才愿意相信这样的论断。
研究还表明,这种权威感也与肢体语言紧密相关。护理机器人虽然也能传递出一定的权威感,包括使用复杂的肢体语言表现出一定的说服力与引导性,但仍与人类存在巨大差别。在数字化时代下适应这种权威依赖心理绝非易事。有研究表明,尽管数字化辅助咨询似乎无甚害处,但却与传统诊疗过程截然不同(通常时间较短),而且目前还难以判断其实际效果。
同样地,要为积极信息注入针对性元素,最重要的是掌握其中的一些细微提示,例如望向某个方向、或者做出有所意味的停顿。研究表明,这些对于诊断效果非常重要。但通过电话问诊时,这些线索往往难以捕捉,护理机器人更是无法注意到这么多细节。
这些不仅是技术问题,同时也是道德问题。如果数字化辅助医疗咨询无法有效传递积极信息,进而带来更好的护理效果,则有可能违反帮助患者的这一基本道德要求。当然,如果未来的护理机器人能够以更低廉的成本为更多人服务(毕竟机器人不需要睡觉),也许会抵消一部分负面因素。总而言之,我们需要在道德层面评估这一切,而目前的情况还不适合匆忙推广机器人类护理方案。
对于护理机器人而言,这甚至可能构成决定其是否合法、甚至是否存在的核心问题。如果同理心与关怀感是有效传递积极信息的关键前提,那么我们必须明确护理机器人是否拥有这种能力。虽然机器人可以表现出表面上的关怀感与同理心,但其深层含义仍然非常复杂。同样地,研究人员们还意识到,这些道德问题很可能直接影响到患者的诊疗结果,因此呼吁建立起一套用于规范护理机器人设计方向的框架。
对积极信息的研究表明,新的道德框架必须能够切实证明关于效果、积极(也包括其他类型)交流等复杂性因素理解与处理方式具备合理性。只有进行这样的认真分析,我们才能切实证明数字化辅助医疗咨询/护理机器人确实能够带来等同甚至超越当面诊断的实际效果。
在某些情况下,护理机器人的表现肯定会好于人类医生(病患往往能以更低的心理负担向机器人倾诉秘密)。但无论如何,机器人与人类之间存在着巨大差异;更要命的是,我们目前并不清楚这种差异究竟是什么。
好文章,需要你的鼓励
现代大语言模型就像一栋拥有数百个房间的豪华大厦,每个房间(或称为"层")都执行特定的功能,共同协作完成复杂的语言理解和生成任务。然而,这些模型的规模已经变得如此庞大,以至于只有拥有高端计算资源的机构才能负担得起它们的运行成本。这就像一辆耗油量极大的豪华跑车,普通人负担不起它的燃料费用。
想象一下,当你在解答一道复杂的数学题时,你不仅需要给出答案,还需要详细解释每一步推导的理由,不能有任何逻辑跳跃或假设——这就是形式化数学推理的严格要求。
想象一下日常生活中我们使用的语音助手,比如Siri或ChatGPT。它们通常是这样工作的:你问一个问题,它回答,然后安静地等待你的下一个指令。这就像是一个只会被动回应的服务员,永远等待你的呼唤。而Voila团队认为,真正高级的AI助手应该更像一个时刻准备着的好朋友或队友,能够自然地融入你的生活节奏中。
想象一下,你正在参加一场料理比赛,有两位评委。第一位评委只给你一个分数,而第二位评委会详细解释你的菜品在口感、创意和技巧上的表现如何,然后才给出最终评价。显然,第二位评委的反馈对于你改进厨艺更有帮助。伊利诺伊大学研究团队正是秉持这一理念,开发了能像第二位评委那样工作的AI评估系统。