2014年6月17日,在2014年第76届EAGE国际会议及展览会上,联想(3236号展台)宣布将携手英伟达(NVIDIA)、微捷码(Magma)和Hue公司,共同为地球物理勘探开发全新的可视化技术解决方案。
这一组合式解决方案将包含联想 ThinkStation D30工作站、NVIDIA® Tesla® K40 GPU加速器和Magma GPU扩展技术,共同为Hue公司用于勘探和生产应用开发的可视化技术提供支持,以推动实现在数秒内渲染数量庞大的地球物理学可视化数据的目标。
地球物理勘探对于发现石油和天然气至关重要,但如何高效处理日益增长的地震数据,以快速渲染并可视化复杂地球模型,长期以来一直是困扰该行业的一个难题。尽管Hue等创新公司正在开发的技术有望大幅提高地质学家的发现能力,但性能低下的计算技术却会成为这些应用的瓶颈,使得勘探项目动辄就要耗费数小时、数天甚或数周的时间。
全新的组合式可视化解决方案首次将高性能计算(HPC)引入了Hue软件开发工具套件,能够最大限度地减少延迟,彻底改变地质学家处理地震数据的方式。该解决方案提供了一个64位的优化环境,可在数秒内分析数TB乃至数PB的数据,使地质学家能够在无缝的工作流中快速执行复杂的算法。
Headwave地球科学顾问Ron Masters博士表示:“在勘探中,数据通常会姗姗来迟,而决策时间却经常提前,从而不断挤压用于分析的时间。新的机会总是要求更大的数据量、更先进的成像和新的解释概念。我们对速度的需求从未如此强大。”
该组合式解决方案的基础是联想 ThinkStation D30工作站,这也是当前性能最高、最可靠、且最简单易用工作站。同时,它通过微捷码的ExpressBox 3600 GPU扩展系统将多个NVIDIA Tesla K40 GPU加速器连接在一起,提供了可媲美高性能计算的强大计算能力。Hue公司独具创新的HueSpace软件工具套件能够充分利用NVIDIA Tesla GPU的强大性能,在单一易用的工具套件中,带来迅捷的计算能力、面向域的一流多维可视化能力、以及智能的勘探与生产数据处理能力。
联想能源、石油和天然气行业解决方案部门的Chris McCoy指出:“联想 ThinkStation D30工作站是市场上性能最佳的工作站,能够帮助地质学家有效应对他们所面临的紧迫计算挑战。通过这方面的努力,我们与业界最出色的技术提供商紧密合作,推出了能够支持全新工作流的解决方案,从而为地质勘探提供有价值的技术支持。”
Hue公司战略联盟技术副总裁Marius Storm-Olsen表示:“我们致力于开发创新的软件应用,帮助地质学家能够以显著低于其他应用的时间,快速执行非常复杂的算法。我们非常自豪能够与联想合作,推出预计在未来将会对石油和天然气行业产生重要影响的解决方案。”
微捷码公司战略业务开发部门的Jim Medeiros表示:“高性能计算解决方案对于石油和天然气行业至关重要,我们很高兴能有机会推动此类解决方案在该领域的应用。将我们的GPU扩展技术增添至工作站解决方案,使得以往仅限在数据中心使用的高性能计算技术,现在也能够在石油和天然气领域大显身手。这是一项了不起的成就,我们非常期待看到该行业对我们这一成果的响应。”
英伟达首席解决方案架构师Ty McKercher指出:“借助基于HueSpace和CUDA GPU加速的交互式3D渲染应用,地质学家将能够处理庞大的数据量,并在使用智能探针浏览数据的同时快速执行复杂计算。这项技术为增强对勘探项目的信心奠定了坚实的基础,使地质学家能够发现以前隐藏的资源,并最终发现更多油气储量。”
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。