微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 ETS Montreal团队让AI视觉识别更懂"精雕细琢":一个让机器既能看大局又能察细节的突破

ETS Montreal团队让AI视觉识别更懂"精雕细琢":一个让机器既能看大局又能察细节的突破

2026-03-17 10:54
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2026-03-17 10:54 科技行者

这项由加拿大蒙特利尔高等技术学院(ETS Montreal)LIVIA实验室主导的创新研究,发表于2026年的国际学习表征会议(ICLR 2026),论文编号为arXiv:2603.04892v1。有兴趣深入了解技术细节的读者可以通过该编号查询完整论文。

在人工智能视觉识别的世界里,一直存在着一个令人头疼的问题,就像试图让一个天生的"大局观"专家同时成为"细节控"一样困难。现有的AI视觉系统,特别是被称为"视觉变换器"(Vision Transformer,简称ViT)的技术,擅长把握图像的整体特征,能够准确判断这是一只猫、一辆车还是一个人。然而,当需要它们进行更精细的工作——比如准确识别图像中每一个像素点属于哪个物体,进行所谓的"语义分割"任务时,它们就显得力不从心了。

这就好比一个优秀的天气预报员,能够准确预测明天是晴天还是雨天,但却无法告诉你哪片云彩会在什么时候飘到你家楼顶。这种"能看大局,难察细节"的局限,一直困扰着AI视觉技术在医疗影像诊断、自动驾驶车辆环境感知等需要精确定位的应用场景中的表现。

蒙特利尔研究团队提出的解决方案名为"LocAtViT"(Locality-Attending Vision Transformer),这个略显复杂的名称背后,藏着一个相当巧妙的设计思路。他们的核心想法是,与其开发一个全新的AI架构,不如给现有的视觉变换器"戴上一副特殊的眼镜",让它在保持原有全局视野优势的同时,也能更好地关注身边的细节。

研究团队的创新之处在于设计了两个相互配合的技术模块。第一个模块被称为"高斯增强注意力"(Gaussian-Augmented attention),它就像给AI的眼睛安装了一个可调节的聚焦镜头。当AI在观察图像时,这个镜头会自动调节,让它在关注某个特定区域时,能够更多地考虑这个区域周围相邻位置的信息。这种设计很像人类视觉的工作方式——当我们专注看某个物体时,周围的相关区域会自然地进入我们的注意范围。

第二个模块叫做"补丁表示优化"(Patch Representation Refinement),它解决的是一个更加技术性但同样重要的问题。传统的视觉变换器在训练时,只关注图像的整体分类结果,对图像中各个小块区域的表示质量并不在意。这个新模块就像一个细致的管家,确保图像中每个小区域都能得到充分的"训练"和"优化",从而在需要精细识别时能够提供高质量的局部信息。

为了验证这套系统的效果,研究团队进行了大量的实验测试。他们使用了多个不同的基础模型作为"实验载体",包括经典的ViT、Swin变换器、以及其他几种先进的视觉架构。测试涵盖了三个重要的数据集:ADE20K(包含150个语义类别)、PASCAL Context(59个类别)和COCO Stuff(171个类别)。

实验结果令人印象深刻。以最基础的ViT模型为例,在ADE20K数据集上,添加了LocAt技术后的微型版本模型,语义分割性能提升了超过6个百分点,这在AI领域是一个相当显著的进步。更重要的是,这种提升并没有以牺牲原有的图像分类能力为代价,有些情况下甚至还略有改善。这就像一个运动员通过特殊训练,在保持长跑成绩的同时,大幅提升了短跑速度。

为了让这个比较更加具体,可以这样理解:如果说传统的视觉变换器在精细识别任务上的表现相当于一个近视眼在没戴眼镜时看远处的小字,那么LocAt技术就相当于为它配了一副度数合适的眼镜,让它既能看清远景,也能看清近物。

研究团队特别强调了他们方法的实用性。这套技术被设计成一个"即插即用"的模块,意思是它可以很容易地添加到现有的各种视觉变换器架构中,而不需要对原始模型进行大幅修改。这种设计哲学非常重要,因为目前很多大型AI公司和研究机构都已经在视觉变换器的基础上投入了大量资源,完全重新开发会带来巨大的成本。

在技术实现层面,高斯增强注意力模块的工作原理相当巧妙。它为图像中的每个小块区域学习一个"关注范围"参数,这个参数决定了该区域应该多大程度上关注其周围的邻近区域。这个范围不是固定的,而是根据图像内容动态调整的。比如,在处理一张包含大片天空的图像时,天空区域的关注范围可能会比较大,因为天空通常是相对均匀的;而在处理包含细密纹理的区域时,关注范围可能会更小,以保持细节的清晰度。

补丁表示优化模块则通过一种巧妙的"无参数自注意力"机制来工作。它在模型的最后阶段增加了一个额外的处理步骤,让图像中各个区域的表示能够相互交流和调整,确保每个区域都能学到有意义的特征表示。这个过程不需要额外的可学习参数,因此不会显著增加模型的复杂度。

研究团队还进行了详细的消融实验,分别测试了这两个模块的独立效果。结果显示,单独使用高斯增强注意力就能带来明显的性能提升,而单独使用补丁表示优化也有积极效果。当两者结合使用时,效果更加显著,证明了这种设计的合理性。

在对比其他相关技术时,LocAt展现出了独特的优势。许多现有的改进方法要么需要对模型架构进行重大修改,要么会显著增加计算成本,或者在提升局部识别能力的同时损害全局理解能力。而LocAt技术在保持原有优势的基础上,仅仅增加了不到0.003%的参数量,计算开销也微不足道。

特别值得一提的是,研究团队还测试了这项技术在自监督学习场景下的表现。他们将LocAt集成到DINO(一种先进的自监督学习方法)中,结果显示在线性分类和最近邻分类任务上都有2%以上的性能提升。这表明LocAt的改进不仅适用于传统的监督学习,也能很好地与最新的自监督学习方法结合。

为了更直观地展示改进效果,研究团队还提供了注意力图的可视化对比。这些图像清晰地显示了LocAt如何改变AI的"注意模式"。在处理一张校车图像时,传统的ViT模型的注意力分布相对分散,而LocAt版本能够更集中地关注校车的各个部分,形成更连贯和有意义的注意力模式。

研究团队还测试了LocAt在不同规模模型上的表现。从最小的"微型"版本到较大的"基础"版本,LocAt都展现出了一致的改进效果。这种规模无关的改进特性,使得该技术具有广泛的适用性,无论是资源受限的移动设备还是大型服务器,都可能从中受益。

在实际应用的角度,这项研究的意义远超学术范畴。精确的语义分割技术在自动驾驶中用于道路场景理解,在医疗影像中用于病灶定位,在农业中用于作物监测,在工业中用于质量检测。LocAt技术的出现,意味着这些应用场景都可能获得更准确、更可靠的AI视觉支持。

研究团队还特别考虑了技术的可移植性。他们验证了LocAt不仅适用于经典的ViT模型,还能够改进其他类型的视觉变换器,包括具有层次结构的Swin变换器、集成了寄存器token的RegViT、使用旋转位置编码的RoPEViT,以及最新的Jumbo模型。这种广泛的兼容性,大大提高了该技术在实际部署中的价值。

有趣的是,研究团队发现LocAt对不同架构的改进程度并不相同。对于那些本身就具有局部注意力机制的模型(如Swin变换器),改进幅度相对较小;而对于完全依赖全局注意力的模型(如原始ViT),改进幅度则非常显著。这个发现揭示了LocAt技术的工作机制,也为未来的研究方向提供了有价值的启示。

在评估方法的可靠性方面,研究团队采用了多种评估指标和测试协议。除了标准的语义分割评估外,他们还使用了"蜂鸟"(Hummingbird)评估协议,这是一种专门用于测试视觉编码器在零样本场景下性能的方法。结果显示,LocAt显著提升了模型在这种更加严格测试条件下的表现,进一步证明了改进的真实有效性。

从技术细节来看,高斯增强注意力机制的设计考虑了多个重要因素。首先,高斯核的方差参数是从输入数据中动态预测的,而不是固定的,这使得模型能够根据图像内容调整局部关注的程度。其次,为了处理不同轴向可能需要不同关注范围的情况,系统为每个图像块预测了二维方差参数,允许在水平和垂直方向上有不同的关注模式。

此外,为了确保高斯增强不会压倒原有的全局注意力机制,研究团队设计了一个学习的缩放因子。这个因子允许模型在训练过程中自动平衡局部偏置和全局信息的重要性。实验表明,这种自适应的平衡机制比固定权重的方案效果更好,也比完全不进行缩放的方案更稳定。

在补丁表示优化方面,研究团队的设计解决了一个长期存在但很少被明确讨论的问题:在传统的分类训练中,只有[CLS] token(用于分类的特殊标记)接受直接的监督信号,而图像中各个空间位置的表示则没有得到足够的关注。这种训练方式虽然适合分类任务,但对需要空间精度的任务来说是不理想的。

补丁表示优化通过引入一个无参数的多头自注意力操作,在分类头之前对所有token进行重新处理。这个操作让空间token能够相互交流信息,同时确保梯度能够有效地传播到这些位置。重要的是,这个操作不需要任何新的可学习参数,因此不会增加模型的存储需求,也不会显著影响推理速度。

研究团队通过消融实验验证了位置编码对LocAt性能的影响。有趣的发现是,即使移除了标准的绝对位置编码,LocAt版本的模型仍然能够超越使用位置编码的原始ViT模型。这表明LocAt机制本身就能够捕捉和利用空间位置信息,某种程度上可以替代位置编码的功能。

在与全局平均池化(GAP)的对比中,研究团队发现补丁表示优化不仅在语义分割任务上表现更好,在分类任务上也有优势。这个发现挑战了一些现有的设计假设,显示了针对密集预测任务进行优化的方法也能带来分类性能的提升。

研究团队还对学习到的高斯方差进行了深入分析。他们发现,不同层学习到的方差参数呈现出有意义的分布模式,既不会过于集中在极小值(这会关闭局部偏置),也不会过于集中在极大值(这会产生过度的局部化)。这种平衡的分布表明,模型确实学会了在不同情况下适当地调节局部关注的程度。

在定性分析方面,注意力图的可视化提供了直观的洞察。研究团队展示了多个例子,显示LocAt如何改善注意力模式的连贯性和相关性。比如,在处理包含多个对象的复杂场景时,LocAt能够让模型更好地将注意力集中在相关的对象区域,而不是分散到整个图像。

值得注意的是,LocAt的改进在不同尺度的模型上都很一致,从参数量只有600万的微型模型到参数量达到8600万的基础模型,都显示出了显著的性能提升。这种规模一致性表明,LocAt所解决的是视觉变换器架构中的一个根本性问题,而不仅仅是特定配置下的问题。

研究团队还测试了LocAt在小规模数据集上的表现。在mini-ImageNet和CIFAR-100这两个相对较小的数据集上,LocAt同样展现出了3%到7%的分类性能提升。这表明LocAt的益处不仅限于大规模数据场景,在数据受限的情况下也能发挥作用。

从实际部署的角度来看,LocAt的轻量化设计是一个重要优势。整个系统只增加了约2340个参数,对于现代的深度学习模型来说几乎可以忽略不计。同时,计算开销的增加也很小,不会显著影响模型的推理速度。这些特性使得LocAt能够很容易地集成到现有的生产系统中。

研究还涉及到了一个重要的理论问题:如何在保持全局理解能力的同时增强局部感知。传统的方法往往是二选一的——要么专注于全局信息,要么专注于局部细节。LocAt提供了一种优雅的解决方案,通过软性的局部偏置而不是硬性的局部约束,实现了两者的平衡。

在比较不同距离核函数的实验中,研究团队测试了高斯核之外的其他选择,包括拉普拉斯核和反距离核。结果显示,虽然这些替代方案也能带来改进,但高斯核在各项指标上都表现最好,验证了原始设计选择的合理性。

研究团队对局部特征在网络层间的演化进行了深入分析。他们发现,在传统的ViT中,随着网络深度的增加,空间patch的表示逐渐向[CLS] token靠拢,失去了局部特异性。而在LocAt版本中,这种趋势得到了很好的抑制,空间patch在深层仍然保持着与其空间邻居的相似性,同时避免了向全局表示的过度收敛。

最后,研究团队诚实地讨论了LocAt的局限性。他们发现,对于已经具有强局部性约束的架构(如使用窗口注意力的模型),LocAt的改进效果会减弱。这个观察提示了LocAt的适用范围——它最适合那些主要依赖全局注意力的架构,对于已经很好地处理了局部性的模型,改进空间相对有限。

说到底,这项研究代表了人工智能视觉理解领域的一个重要进步。它不是通过革命性的新架构来解决问题,而是通过深入理解现有技术的缺陷,设计出了一个简单而有效的改进方案。这种务实的研究方法,以及所取得的显著改进效果,使得LocAt很可能成为未来视觉AI系统的标准组件之一。

对于普通人而言,这项技术的普及可能意味着更精确的医疗影像诊断、更安全的自动驾驶体验、更智能的图像编辑软件,以及更准确的各种视觉AI应用。随着这类技术的不断完善和普及,我们与AI视觉系统的交互将变得更加自然和高效,AI将能够更好地理解和服务于我们的视觉世界。

Q&A

Q1:LocAtViT技术是什么,它解决了AI视觉识别的什么问题?

A:LocAtViT是蒙特利尔研究团队开发的视觉AI改进技术,解决了现有AI视觉系统"能看大局难察细节"的问题。传统的视觉变换器擅长整体图像分类,但在需要精确识别图像中每个区域属于什么物体的语义分割任务上表现不佳,LocAtViT通过给AI装上"可调焦镜头",让它既能保持全局视野,又能更好地关注局部细节。

Q2:LocAtViT技术的改进效果有多大?

A:实验结果显示改进效果非常显著。以基础的ViT模型为例,在ADE20K数据集上,添加LocAt技术后的微型版本模型语义分割性能提升了超过6个百分点,基础版本也有4%以上的提升。更重要的是,这种提升没有牺牲原有的图像分类能力,有些情况下分类性能还略有改善,同时只增加了不到0.003%的参数量。

Q3:普通人能从LocAtViT技术中获得什么实际好处?

A:这项技术的普及将带来多方面的实际好处。在医疗领域,能够实现更精确的影像诊断;在自动驾驶中,提供更准确的道路场景理解,增强行车安全;在图像编辑软件中,实现更智能的自动选择和处理功能;在农业监测、工业质检等领域也能提供更可靠的AI视觉支持,让各种需要精细图像理解的应用变得更加准确和实用。

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • 南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。

  • 香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。

  • 中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。

  • 字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-