
专家指出,利用机器学习算法将临床与分子数据结合,将成为“未来的潮流”。
一位病患走进医生办公室,开始接受胆囊CT扫描。胆囊健康状态良好,但医生注意到这位病人的胰腺上方有一个囊状淤袋。医生告诉他,这也许是个可能导致癌症的囊肿,因此需要将其切除以确保安全。
医生补充道,术后恢复可能需要三个月的时间,手术有50%的几率引起并发症,此外这位病患还有5%的机率在手术中失去生命。
据估算,美国每年约有80万名患者被诊断出患有胰腺囊肿,而医生一直没有办法确定哪些囊肿会真正引发致命癌症,而哪些属于良性情况。这种模糊不清的现状,带来了成千上万次不必要的手术:一项研究发现,在接受囊肿切除手术的病人当中,有高达78%的比例最终并没有发生任何癌变。
现在,一种新的机器学习算法有望提供帮助。约翰霍普金斯大学的外科医生与计算机科学家们日前在《Science Translational Medicine》上公布了一项名为CompCyst(用于综合性囊肿分析)的测试,该测试明显优于当前的标准护理方法——即医生观察与医学成像。其能够更准确地判断患者可以直接回家、继续观察或者接受手术。
论文高级作者、约翰霍普金斯Kimmel癌症中心胰腺囊肿项目主任Anne Marie Lennon在此项研究的新闻发布会上表示,“我们对结果感到非常兴奋。”她希望在未来6到12个月内为普霍金斯医院的患者们提供测试,并计划在完成更大规模的前瞻性临床试验后将其正式推向市场。
研究作者、Kimmel癌症中心外科肿瘤学主任Christopher Wolfgang指出,绝大多数胰腺囊肿都是良性的,但现在医生们投入大量精力对其进行跟踪。“我们需要跟踪所有患者,数量级在数十万之巨,相关成本极为高昂而且在某些情况下甚至需要进行侵入性检查,以发现那些可能会发展成癌症的病例。”他同时补充称,这种测试可能导致患者接受辐射照射并引发其它并发症,更不用说巨大的精神压力。
Lennon、Wolfgang以及其他研究人员开始构建一种能够筛查患者信息的工具,希望借此找到可区分低风险与高风险囊肿的模式。为此,他们从霍普金斯医院的数百名患者及世界各地的15座医疗中心处收集数据。相关病患都被诊断出患有囊肿,并接受了切除手术。手术之后,他们检查囊肿后续情况并将其分类为无风险、低风险或者可能癌变的高风险情况。
该团队的CompyCyst测试采用一种被称为MOCA的机器学习算法对多变量组合变化组织进行分析。该算法将分子数据(包括DNA突变与染色体变化)与提取到的囊肿液以及成像测试中的蛋白质信息相结合,以期给出更准确的诊断结果。
该团队利用来自436名病患的数据进行算法训练,而后在由426名患者数据构建的第二组独立数据集上进行测试。霍普金斯大学博士后研究员、论文共同作者Marco Dal Molin表示,该算法测试了数百万个数据点组合,能够以高灵敏度与高特异性预测出正确的治疗途径。
CompCyst在所有三类患者群体中的表现都优于目前医生所使用的标准治疗方法:其正确预测出60%可以直接回家的患者(标准治疗方法仅可预测出19%)、49%应接受进一步观察的患者(标准方法为34%)以及91%需要接受手术的患者(标准方法为89%)。
总体而言,研究人员估计如果使用CompCyst进行患者治疗决策,那么其中60%至74%的患者(具体取决于囊肿类型)完全能够免受开刀之苦。
论文共同作者、霍普金斯大学路德维希中心联合主任兼肿瘤学教授Bert Vogelstein表示,将机器学习与临床及遗传特征结合起来将成为“未来的新浪潮,其不仅能够诊断临床胰腺囊肿,还能够揭开多种其它疾病的神秘面纱。”
Vogelstein和另外两位共同作者最近联合创办了一家名为Thrive Earlier Detection的公司,该公司已经获得CompCyst测试的商业发展许可。
好文章,需要你的鼓励
Adobe研究院与UCLA合作开发的Sparse-LaViDa技术通过创新的"稀疏表示"方法,成功将AI图像生成速度提升一倍。该技术巧妙地让AI只处理必要的图像区域,使用特殊"寄存器令牌"管理其余部分,在文本到图像生成、图像编辑和数学推理等任务中实现显著加速,同时完全保持了输出质量。
香港科技大学团队开发出A4-Agent智能系统,无需训练即可让AI理解物品的可操作性。该系统通过"想象-思考-定位"三步法模仿人类认知过程,在多个测试中超越了需要专门训练的传统方法。这项技术为智能机器人发展提供了新思路,使其能够像人类一样举一反三地处理未见过的新物品和任务。
韩国KAIST开发的Vector Prism系统通过多视角观察和统计推理,解决了AI无法理解SVG图形语义结构的难题。该系统能将用户的自然语言描述自动转换为精美的矢量动画,生成的动画文件比传统视频小54倍,在多项评估中超越顶级竞争对手,为数字创意产业带来重大突破。
华为诺亚方舟实验室提出VersatileFFN创新架构,通过模仿人类双重思维模式,设计了宽度和深度两条并行通道,在不增加参数的情况下显著提升大语言模型性能。该方法将单一神经网络分割为虚拟专家并支持循环计算,实现了参数重用和自适应计算分配,为解决AI模型内存成本高、部署难的问题提供了全新思路。