
科技行者 8月28日 北京消息(文/孙封蕾): 今天,在AICC2019人工智能计算大会上,百度与浪潮宣布在人工智能领域达成合作,双方将共建百度飞桨(PaddlePaddle)与浪潮AIStation联合方案。本次合作,将让深度学习开发者可以更便捷、高效地在浪潮AI服务器上应用飞桨的深度学习能力。在此基础上,双方将携手创建一个开放全新的生态,赋能产业开发者,推进产业智能化进程。

据悉,当前,飞桨的PaddleHub、AutoDL Design、PARL三大工具模块,及包括ERNIE持续学习语义理解框架在内的160+个有优势性能的预训练模型,已经整合在浪潮AIStation平台上,开发者可同时享有敏捷高效的AI计算资源管理部署和专业AI框架优化服务。
百度飞桨是国内唯一功能完备的端到端开源深度学习平台,集深度学习训练和预测框架、模型库、工具组件和服务平台为一体,拥有兼顾灵活性和高性能的开发机制、工业级应用效果的模型、超大规模并行深度学习能力、推理引擎一体化设计及系统化服务等优势,致力于让深度学习技术的创新与应用更简单。
AIStation则是浪潮面向AI企业训练场景的人工智能PaaS平台,可实现容器化部署、可视化开发、集中化管理等,为用户提供极致高性能的AI计算资源,实现高效的计算力支撑、精准的资源管理和调度、敏捷的数据整合及加速、流程化的AI场景及业务整合,有效打通开发环境、计算资源与数据资源,提升开发效率。
自开源以来,百度飞桨持续进化升级。今年7月初发布的飞桨+华为麒麟NPU合作,打通了深度学习框架与芯片,通过“硬软结合”的方式,为中国产业开发者最大限度释放深度学习能力。
今天发布的与浪潮AIStation的联合方案,将帮助完善百度飞桨在服务器侧的战略布局,进一步释放深度学习在AI 服务器端的能力。至此,飞桨在端侧、云侧实现了全方位、立体式的覆盖。
好文章,需要你的鼓励
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。
南洋理工大学与腾讯联合研究团队开发出Rolling Forcing技术,实现AI视频实时流式生成的重大突破。该技术通过滚动窗口联合去噪、注意力锚点机制和高效训练算法三项创新,解决了长视频生成中的错误累积问题,可在单GPU上以16fps速度生成多分钟高质量视频,延迟仅0.76秒,质量漂移指标从传统方法的1.66降至0.01,为交互式媒体和内容创作开辟新可能。
华中科技大学研究团队发现,通过让AI模型学习解决几何问题,能够显著提升其空间理解能力。他们构建了包含约30000个几何题目的Euclid30K数据集,使用强化学习方法训练多个AI模型。实验结果显示,几何训练在四个空间智能测试基准上都带来显著提升,其中最佳模型达到49.6%准确率,超越此前最好成绩。这项研究揭示了基础几何知识对培养AI空间智能的重要价值。