高通日前发布全新虚拟现实(VR)软件开发包(SDK)。
820处理器这样的先进异构处理器可支持沉浸式VR体验,但如果没有合适的开发者工具包,开发者们也难以充分利用其性能。
开始提供。
骁龙VR SDK将首次支持多项针对最佳VR用户体验的、至关重要的新技术。它们包括:
• DSP传感器融合:利用骁龙820中包含的全套技术,该SDK让开发者能够通过骁龙传感器内核,轻松获取来自高频陀螺仪和加速计的感应数据,并利用Qualcomm® Hexagon™ DSP进行预测性的头部位置处理,打造具备更佳响应性的沉浸式体验
• 快速光子移动:通过异步时间扭曲及单显示缓存,提供快速的3D画面渲染,与不使用该SDK相比,减少高达50%的延迟
• 支持镜头校正的立体渲染:支持3D双眼画面的色彩校正和桶形畸变,提高图形和视频的视觉质量,增强整体VR体验
• VR图层:生成菜单、文字和其他覆盖图层,在虚拟世界中实现正确渲染,减少失真可能造成的视觉不适感
• 功耗管理:集成Qualcomm® Symphony System Manager SDK,提供整体的CPU、GPU和DSP功率与性能管理,让VR能够在低功耗、低散热的严格要求下,以稳定的帧数率运行——与不使用该SDK相比,提高电源效率
Qualcomm Technologies, Inc. 工程高级总监Dave Durnil表示,“我们正提供先进的工具和技术帮助开发者显著改善诸多应用程序的虚拟现实体验,包括游戏、360度VR视频和各种交互式教育与娱乐应用等。VR是我们与世界互动的全新方式,我们很高兴能帮助移动VR开发者在即将面市的、可支持VR的骁龙820安卓智能手机和头盔上,更高效地提供引人瞩目的高品质体验。”
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。
谷歌DeepMind团队开发的GraphCast是一个革命性的AI天气预测模型,能够在不到一分钟内完成10天全球天气预报,准确性超越传统方法90%的指标。该模型采用图神经网络技术,通过学习40年历史数据掌握天气变化规律,在极端天气预测方面表现卓越,能耗仅为传统方法的千分之一,为气象学领域带来了效率和精度的双重突破。