微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 香港科技大学全新方法:用"代码本"替代传统"丢弃"技术,让AI医学图像分析更稳定精确

香港科技大学全新方法:用"代码本"替代传统"丢弃"技术,让AI医学图像分析更稳定精确

2026-01-28 09:48
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2026-01-28 09:48 科技行者

这项由香港科技大学(广州)和香港科技大学联合开展的突破性研究发表于2025年的NeurIPS会议,有兴趣深入了解的读者可以通过论文编号arXiv:2601.10124v1查询完整论文。

医学图像分析就像医生看X光片一样,需要准确识别病灶位置。但现在的AI医生面临一个尴尬问题:训练数据太少。医院里标注好的图像就像教科书,数量有限且制作成本昂贵,需要专业医生花费大量时间仔细标记每个病灶。

为了解决这个问题,科学家们想出了一个聪明的办法,叫做半监督学习。这就像让学生既用教科书学习,又通过大量没有标准答案的练习题来提升能力。在这个过程中,有一种叫做"特征丢弃"的技术被广泛使用,它的工作原理类似于故意制造一些"噪音"来增强AI的抗干扰能力。

然而,这种传统的丢弃技术就像调音师调节音响设备一样,需要非常精确地控制"丢弃率"这个参数。如果丢弃得太少,就像音量开得太小,起不到锻炼效果;如果丢弃得太多,就像音量开得震耳欲聋,反而会损坏系统。研究团队通过大量实验发现,当丢弃率超过70%时,AI的表现会急剧下降,甚至产生完全无法使用的结果。

面对这个技术难题,香港科技大学的研究团队提出了一个革命性的解决方案:VQ-Seg。他们的核心创新是用"量化扰动模块"(QPM)来替代传统的丢弃技术。这个新方法就像是把连续的颜色调色板换成了一个有限颜色的调色盒。

具体来说,传统方法就像在一张彩色照片上随机涂黑一些像素点,这种做法虽然能增加难度,但控制不当就会让图片变得面目全非。而新方法则像是把照片先转换成马赛克风格(每个小块用一种代表颜色),然后通过巧妙地交换这些小块的位置来创造变化。这种方法的妙处在于,不管怎么交换,图片的基本信息都不会丢失,只是排列方式发生了变化。

研究团队还设计了一个巧妙的"双分支架构"。这就像让AI同时学习两门课程:一门是图像重建课(学会把马赛克图片还原成原始清晰图片),另一门是病灶识别课(学会在图片中找到病变区域)。通过同时学习这两门课程,AI不仅能保持对图像细节的敏感度,还能增强对病灶特征的识别能力。

更进一步,研究团队还引入了一个"语义对齐器"(PFA),它的作用就像给AI配备了一位经验丰富的老师。这位老师来自于预训练的视觉基础模型DINOv2,虽然它原本是在自然图像上训练的,但研究发现它在医学图像上也表现出色。通过这位老师的指导,AI能够更好地理解图像中的高级语义信息,弥补量化过程中可能丢失的细节。

为了验证新方法的有效性,研究团队收集了一个大规模的肺癌数据集,包含828个CT扫描样本,专门标注了中心型肺癌的位置。这个数据集的建立本身就是一项重要贡献,为肺癌AI诊断研究提供了宝贵资源。

实验结果令人印象深刻。在只使用5%标注数据的情况下,VQ-Seg的Dice得分达到了0.6643,显著超过了当前最好方法Unimatch的0.6493。这个提升虽然看似微小,但在医学图像分析领域,即使1%的提升都可能意味着更多生命的挽救。当使用10%标注数据时,VQ-Seg的优势更加明显,Dice得分提升到0.7852,相比MCNet的0.7555有了近3%的显著提升。

研究团队还进行了详细的消融实验,逐一验证了各个组件的贡献。结果显示,量化扰动模块将基础模型的Dice得分从0.7443提升到0.7701,双分支架构进一步提升到0.7784,而语义对齐器则贡献了额外的性能提升。当所有组件结合使用时,最终模型达到了最佳性能。

从理论角度来看,研究团队还提供了严格的数学证明。他们通过KL散度分析表明,传统的丢弃方法在高丢弃率下会导致特征分布的剧烈变化,而他们的量化扰动方法则能保持分布的稳定性。这就像传统方法是在暴风雨中航行,而新方法则是在微风中前进,虽然都有扰动,但后者更加可控和安全。

除了在自建的肺癌数据集上取得突破,VQ-Seg在公开的ACDC心脏图像数据集上也表现出色,进一步证明了方法的通用性。这种跨领域的成功表明,该方法不仅适用于肺癌诊断,还可能在其他医学图像分析任务中发挥重要作用。

研究团队还通过可视化分析展示了代码本的演化过程。初始阶段,只有3.4%的代码被激活使用,随着训练进行,使用率逐渐提升到67%,最终达到98%。这个过程就像一个图书馆逐渐被充分利用,从最初只有少数几本书被借阅,到最后几乎每本书都发挥了作用。

值得注意的是,VQ-Seg在不同标注数据比例下都保持了稳定的性能优势。即使在标注数据充足的情况下,它仍然能够超越传统的全监督方法,这说明该方法不仅在数据稀缺时有效,在数据丰富时也能带来额外收益。

当然,这项研究也存在一些局限性。当前的扰动操作只能在离散的量化空间中进行,难以直接扩展到连续特征表示。此外,引入基础模型虽然带来了语义信息的增强,但也增加了计算开销。

研究团队表示,未来的工作将聚焦于开发可在连续空间中工作的可控扰动机制,并探索更高效的基础模型集成方法。他们相信,随着这些技术的进一步完善,AI在医学图像分析领域的应用将变得更加准确和可靠。

说到底,这项研究就像为医学AI领域带来了一套全新的"工具箱"。传统的工具虽然有效,但使用起来需要小心翼翼,稍有不慎就可能出问题。而新工具不仅更加稳定可靠,还能在各种复杂情况下保持良好性能。这对于医生们来说意味着什么呢?未来他们将拥有更加智能和可靠的AI助手,能够在CT扫描中更准确地识别肺癌等疾病,从而为患者提供更及时有效的治疗。对于医学AI研究领域而言,这套新方法也为其他类似问题的解决提供了有价值的思路和工具。有兴趣深入了解技术细节的读者,可以通过前述论文编号查阅完整的研究报告。

Q&A

Q1:VQ-Seg和传统医学图像分析方法有什么不同?

A:VQ-Seg最大的不同在于用"量化扰动"替代了传统的"随机丢弃"技术。传统方法像在图片上随机涂黑像素,控制不当就会损坏图像信息。而VQ-Seg先把图像转换成离散的"代码本"形式,然后通过交换代码位置来创造变化,这样既能增加训练难度,又不会丢失关键信息,使AI训练更稳定可控。

Q2:为什么VQ-Seg在医学图像标注数据很少的情况下效果更好?

A:VQ-Seg采用了"双分支架构",让AI同时学习图像重建和病灶识别两个任务。这就像让学生既学理论又做实践,通过图像重建任务提供额外的自监督信号,即使标注数据少,AI也能从大量未标注图像中学到有用信息。再加上引入预训练模型作为"语义老师",进一步提升了学习效果。

Q3:VQ-Seg能应用到其他疾病的诊断吗?

A:研究结果显示VQ-Seg具有很好的通用性。除了在肺癌CT图像上表现出色,它在心脏MRI图像的ACDC数据集上也取得了最佳成果。这说明该方法不仅限于特定疾病,而是一个通用的医学图像分析框架,理论上可以应用到各种医学影像诊断任务中。

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • 南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。

  • 香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。

  • 中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。

  • 字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-