科技行者 8月28日 北京消息(文/孙封蕾): 今天,在AICC2019人工智能计算大会上,百度与浪潮宣布在人工智能领域达成合作,双方将共建百度飞桨(PaddlePaddle)与浪潮AIStation联合方案。本次合作,将让深度学习开发者可以更便捷、高效地在浪潮AI服务器上应用飞桨的深度学习能力。在此基础上,双方将携手创建一个开放全新的生态,赋能产业开发者,推进产业智能化进程。
据悉,当前,飞桨的PaddleHub、AutoDL Design、PARL三大工具模块,及包括ERNIE持续学习语义理解框架在内的160+个有优势性能的预训练模型,已经整合在浪潮AIStation平台上,开发者可同时享有敏捷高效的AI计算资源管理部署和专业AI框架优化服务。
百度飞桨是国内唯一功能完备的端到端开源深度学习平台,集深度学习训练和预测框架、模型库、工具组件和服务平台为一体,拥有兼顾灵活性和高性能的开发机制、工业级应用效果的模型、超大规模并行深度学习能力、推理引擎一体化设计及系统化服务等优势,致力于让深度学习技术的创新与应用更简单。
AIStation则是浪潮面向AI企业训练场景的人工智能PaaS平台,可实现容器化部署、可视化开发、集中化管理等,为用户提供极致高性能的AI计算资源,实现高效的计算力支撑、精准的资源管理和调度、敏捷的数据整合及加速、流程化的AI场景及业务整合,有效打通开发环境、计算资源与数据资源,提升开发效率。
自开源以来,百度飞桨持续进化升级。今年7月初发布的飞桨+华为麒麟NPU合作,打通了深度学习框架与芯片,通过“硬软结合”的方式,为中国产业开发者最大限度释放深度学习能力。
今天发布的与浪潮AIStation的联合方案,将帮助完善百度飞桨在服务器侧的战略布局,进一步释放深度学习在AI 服务器端的能力。至此,飞桨在端侧、云侧实现了全方位、立体式的覆盖。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。
上海AI实验室发布OmniAlign-V研究,首次系统性解决多模态大语言模型人性化对话问题。该研究创建了包含20万高质量样本的训练数据集和MM-AlignBench评测基准,通过创新的数据生成和质量管控方法,让AI在保持技术能力的同时显著提升人性化交互水平,为AI价值观对齐提供了可行技术路径。
谷歌DeepMind团队开发的GraphCast是一个革命性的AI天气预测模型,能够在不到一分钟内完成10天全球天气预报,准确性超越传统方法90%的指标。该模型采用图神经网络技术,通过学习40年历史数据掌握天气变化规律,在极端天气预测方面表现卓越,能耗仅为传统方法的千分之一,为气象学领域带来了效率和精度的双重突破。