Facebook研究人员日前发布了一个新的人工智能模型SEER,SEER模型可以利用互联网上任何一组随机的、未被标记的图像进行学习。Facebook这一“突破”虽然还处于早期阶段,但团队预计该“突破”将导致计算机视觉领域的一场"革命"。
SEER是SElf-SupERvised(自我监督[学习])的英文缩写,SEER的训练用了10亿张公开的Instagram图片,这些图片是未经人工策划过的。即图片没有做过通常用于算法训练的标签和注释处理,但SEER仍然能够自主地利用数据集一边学习一边处理数据,最终可以在物体检测等任务上达到最高的准确度。
SEER用的这种方法被称为「自我监督学习」,自我监督学习在人工智能领域已经非常成熟,可以直接从用于训练的信息创建学习系统,不必依靠经过仔细标记的数据集训练如何执行任务,例如识别照片里的对象,或翻译一段文字等任务。
自我监督学习最近在科学界受到大量关注,因为这个方法,意味着对人类标注数据的需要少很多,标注数据是一项费力费时的任务,是大多数研究人员都不愿做的事情。同时,由于自监督模型不需要经人工策划的数据集,因此可以利用更大、更多样化的数据集。
在某些领域(尤其是自然语言处理领域),自我监督学习方法已经取得了突破性的进展。许多利用无标记文本训练的算法使得诸如答疑、机器翻译、自然语言推理等应用取得了各种进展。
相比之下,计算机视觉还没有完全投入自我监督学习的革命之中。Facebook AI Research的软件工程师Priya Gopal称,SEER标志着计算机视觉领域的第一次。她告诉记者,"SEER是第一个完全自我监督的计算机视觉模型,是利用互联网的随机图像进行训练的,而相比之下,计算机视觉领域现有的自我监督方面的工作,都是利用经大量编辑过的ImageNet数据集进行训练。"
ImageNet实际上是个由数百万张图片组成的大规模数据库,这些图片都被研究人员标注了标签,ImageNet面向广大计算机视觉界开放,目的是推动人工智能的发展。
Facebook的研究人员以该项目的数据库,作为基准评估SEER的性能,他们发现,自监督模型在低照、物体检测、分割和图像分类等任务上的表现优于最先进的监督型AI系统。
Goyal表示,"SEER仅利用随机图像进行训练,性能却优于现有的自我监督模型。这个结果基本上表明,我们在计算机视觉中不需要像ImageNet这种经高度策划过的数据集,利用随机图像进行自我监督学习已经可以产生非常高质量的模型。"
由于自我监督学习需要的精密程度较高,研究人员在这方面的工作也并非没有挑战。在涉及到文本时,人工智能模型要做的是赋予单词特定的意思;但对于图像而言,算法必须给每个像素赋予一个对应的概念,同时要考虑同一个概念在不同图片中的各种角度、视图和形状。
换句话说,研究人员处理图像时,需要大量的数据以及可以复杂的信息库中推导出所有可能的视觉概念的模型。
Goyal和她的团队为了达到这个目的,在Facebook AI自我监督学习方面的现有基础上,开发了名为「SwAV」的新算法,SwAV算法将那些显示相似概念的图像分类为不同的组。Facebook科学家们还设计了一个深度学习算法的卷积网络,该卷积网络可以模拟人脑中神经元的连接模式,以及为图像中的不同对象赋予不同的重要性。
该系统用了10亿Instagram图的强大数据集,至少规模是够大了。Facebook的团队用了V100 Nvidia GPU和32GB内存,模型规模增大后,团队也只得用模型去套可用的内存。但Goyal解释说,下一步的研究将有助于确保计算能力可以适应新系统。
她表示,"我们要在越来越多的GPU上训练模型时,GPU之间的通信需要足够快速,以达到实现更快训练的目的。这样的挑战可以通过开发明确的软件和研究技术得到解决,开发的软件和技术能够针对特定的内存和运行时间预算行之有效。"
因此,在SEER付诸实际使用案例之前还有一些工作要做。但Goyal认为,SEER技术的影响不应该被低估。她表示,"SEER技术使得我们现在可以利用大量丰富的互联网随机图像训练大型模型,可以在计算机视觉领域取得各种进展。"
Goyal称,"这一突破,可以实现计算机视觉领域的自我监督学习革命,其和我们在自然语言处理里看到的涉及文本的自我监督学习革命有些类似。"
SEER在Facebook内部可以用在广泛的计算机视觉任务上,包括自动生成图像描述、帮助识别违反政策的内容等等。SEER技术在Facebook以外的地方也可以在图像和元数据有限的领域发挥作用,比如医疗成像。
Facebook的团队呼吁各方面做更多的工作,以推动SEER进入下一个发展阶段。Facebook团队还开发了基于PyTorch的多用途库,可用于自我监督学习,库名为「VISSL」,已开源,目的是鼓励广泛的AI社区使用该技术进行测试。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。