微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 PHYX:大模型的物理推理能力测试,揭示AI在视觉物理问题上的惊人差距

PHYX:大模型的物理推理能力测试,揭示AI在视觉物理问题上的惊人差距

2025-05-29 10:26
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-05-29 10:26 科技行者

现代人工智能发展迅猛,尤其是以GPT-4o、Claude 3.7等为代表的多模态大语言模型(MLLMs)似乎已经能够解决奥林匹克级别的数学问题。但2025年5月,由香港大学、密歇根大学、多伦多大学、滑铁卢大学和俄亥俄州立大学的研究团队在arXiv预印本平台发布的一项研究却揭示了一个惊人的事实:即便是最先进的AI模型,在物理推理能力上与人类专家相比仍有巨大差距。这项由Hui Shen、Taiqiang Wu等研究者领导的研究发表于arXiv:2505.15929v1,为我们展示了AI在"看懂"物理世界方面的现状。

想象一下,当你看到一个苹果从树上掉下来,你自然会理解这是重力作用的结果。对人类来说,这种物理直觉是与生俱来的,我们不需要明确地思考公式就能预测物体的运动。然而,AI模型在这方面的表现如何呢?研究团队创建了名为PHYX的基准测试,专门评估模型对物理场景的理解能力。

PHYX不是简单的知识问答,而是一个包含3000个精心设计的多模态物理问题的综合测试。这些问题涵盖了热力学、电磁学、力学、现代物理学、光学以及波与声学六大核心物理领域,分布在25个细分领域中。每个问题都配有视觉场景,要求模型不仅要理解物理公式,还要将这些抽象的知识应用到具体的视觉情境中。

举个例子,一个典型的PHYX问题可能会展示一个斜坡上的物体,并询问在特定条件下物体将如何运动。为了正确回答,AI需要识别图像中的关键元素(如斜坡角度、物体质量),应用适当的物理定律(如牛顿第二定律),进行必要的计算,并给出准确答案。这种推理过程结合了领域知识、符号推理和对现实世界约束的理解,比单纯的数学计算要复杂得多。

研究团队对16个基础模型进行了全面评估,结果令人惊讶。即便是目前最先进的多模态模型如GPT-4o、Claude 3.7-Sonnet和GPT-o4-mini,分别只达到了32.5%、42.2%和45.8%的准确率。相比之下,人类专家的表现至少在75.6%以上,最高可达78.9%。这意味着AI与人类之间存在着至少29%的能力差距!

这种差距在不同物理领域表现不一。在波与声学和力学领域,模型表现相对较好,这可能是因为这些问题通常包含自然图像,需要的推理步骤相对较少。而在热力学和现代物理学领域,模型的表现普遍较差,这些领域的问题往往需要更复杂的视觉感知和多步推理。

通过对96个错误案例的深入分析,研究团队发现了当前模型的三个关键缺陷。首先,视觉推理错误(占39.6%)表明模型常常误解视觉上下文,无法准确提取和理解实际物理场景中的信息。其次,模型过度依赖详细的文本描述,当输入从完整文本降为简化文本再到最小文本时,性能显著下降,表明它们未能有效利用视觉输入进行推理。最后,与数学推理相比,物理推理对模型来说是更大的挑战,需要更好地整合抽象概念和现实世界知识。

研究者还发现,即使是没有直接视觉输入的大语言模型(LLMs)如DeepSeek-R1和GPT-o3-mini,在获得图像描述后也能取得与多模态模型相当的表现。这一发现既展示了LLMs令人印象深刻的泛化能力,也暴露了当前MLLMs在利用原始视觉信号进行物理推理方面的局限性。

值得注意的是,这项研究不仅指出了问题,还提供了解决方案。研究团队实施了一个基于广泛使用的工具包(如VLMEvalKit)的评估协议,支持一键式评估,极大地方便了未来研究者复现实验结果。

总的来说,PHYX基准测试不仅是对当前AI模型物理推理能力的全面评估,也为未来发展物理感知AI系统提供了清晰的路线图。它揭示了AI从"看到"到"理解"物理世界的漫长之路,同时也激励研究者开发能够真正理解物理规律而非仅依靠表面模式匹配的AI系统。

随着AI技术不断发展,或许未来的模型能够像人类一样自然地理解物理世界,但目前看来,这一目标仍有相当长的路要走。正如物理学家理查德·费曼所言:"物理学是最基础和最包罗万象的科学。"同样,对物理世界的深入理解也可能是AI迈向真正智能的基础和关键。

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • LLM情境调节与持续工作流程提示:革新化学分子式的多模态验证技术

    LLM情境调节与持续工作流程提示:革新化学分子式的多模态验证技术

    这项研究探索了如何通过"LLM情境调节"和"持续工作流程提示"技术来提高大型语言模型在验证化学分子式时的准确性。研究者发现,普通提示方法往往不可靠,因为LLM倾向于自动"纠正"错误而非指出它们。然而,通过精心设计的情境调节提示,研究成功引导Gemini 2.5 Pro不仅识别出文本中的错误,还发现了之前人工审阅未察觉的图像中的分子式错误。这一概念验证研究表明,即使不修改模型本身,也能通过适当的提示策略显著提高LLM在科学技术文档细节验证中的表现。

  • 微生物显微图像分割新突破:复旦大学研究团队借助多模态大语言模型统一显微镜下的"万物分割"

    微生物显微图像分割新突破:复旦大学研究团队借助多模态大语言模型统一显微镜下的"万物分割"

    复旦大学研究团队开发的uLLSAM模型成功将多模态大语言模型(MLLMs)与分割一切模型(SAM)结合,解决了显微镜图像分析的跨域泛化难题。通过创新的视觉-语言语义对齐模块(VLSA)和语义边界正则化(SBR)技术,该模型在9个领域内数据集上提升了7.71%的分割准确度,在10个从未见过的数据集上也展现了10.08%的性能提升。这一统一框架能同时处理光学和电子显微镜图像,大大提高了生物医学图像分析的效率和准确性,为科研人员提供了强大的自动化分析工具。

  • 用强化学习让大语言模型为汇编代码提速:斯坦福团队的优化探索

    用强化学习让大语言模型为汇编代码提速:斯坦福团队的优化探索

    斯坦福大学等机构研究团队利用强化学习训练大语言模型,使其能够优化汇编代码性能。研究构建了8,072个程序的数据集,并通过近端策略优化(PPO)训练模型生成既正确又高效的汇编代码。实验表明,训练后的Qwen2.5-Coder-7B-PPO模型实现了96.0%的测试通过率和1.47倍平均加速比,超越包括Claude-3.7-sonnet在内的所有其他模型。研究发现模型能识别编译器忽略的优化机会,如用单一指令替代整个循环,为性能敏感应用提供了有价值的优化途径。

  • 播放师傅变声魔术:让你的录音遵循参考风格的推理时间优化新方法

    播放师傅变声魔术:让你的录音遵循参考风格的推理时间优化新方法

    这项研究提出了一种改进的声乐效果风格迁移方法,通过在推理时间优化过程中引入高斯先验知识,解决了传统ST-ITO方法忽视参数合理性的问题。研究团队基于DiffVox数据集构建了专业效果器参数分布模型,将风格迁移转化为最大后验概率估计问题。实验结果表明,该方法显著优于基准方法,参数均方误差降低了33%,并在主观听感测试中获得最高评分。这一创新为音频处理领域融合数据驱动和专业知识提供了新思路。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-