科技行者 10月20日 北京消息: 10月17日,中国联通智慧生态合作大会在北京隆重举行,本次大会以“联通赋能 共创生态”为主题,吸引了近200家中国联通智慧家庭、大视频以及泛智能终端三大业务领域的合作伙伴参与。会上,中国联通发布了全新智慧生态战略,并正式推出“联通赋能”生态合作品牌,向产业链释放出积极信号。中国联通董事长王晓初、总经理李国华、副总经理买彦州出席会议。
大会伊始,中国联通董事长王晓初发表致辞。他表示,5G及千兆光纤的规模应用,将带来大视频、智慧家庭、泛智能终端等各领域的多样化机遇,引发产业升级与生态重构。中国联通为推动新技术与经济社会各领域的深度融合,积极开展了5G时代智慧家庭和大视频新生态模式的探索和实践,通过服务能力开放和内外部资源整合,与产业链伙伴形成了广泛化、深度化的合作。在万物互联的智慧新时代,中国联通将秉承“共商、共建、共赢”的合作理念,在聚合基础网络、运营平台、销售渠道、客户服务等核心能力的基础上,向合作伙伴赋能,实现产业生态优势互补、合作共赢,共同打造全新的智慧生态合作体系。
会上,中国联通总经理李国华与出席大会的合作伙伴代表共同发布了“联通赋能”生态合作品牌。“联通赋能”品牌是基于中国联通六大核心能力,致力于实现对合作伙伴从基础网络到云端、从内容应用到权益服务、从业务孵化到资本合作的全环节一体化综合赋能。“联通赋能”将聚合产业各方的资源禀赋,共同打造大视频、智慧家庭、泛智能终端三大生态体系。
中国联通副总经理买彦州发表了“赋能智慧生态共创美好生活”主题演讲。他表示,政策机遇、技术演进、网络升级已经为智慧家庭产业、大视频产业、泛智能终端产业带来广阔的新空间,中国联通将围绕这三个产业打造三大生态,在构建三大生态过程中,中国联通对资源能力进行了全方位梳理和体系化重构,形成了平台能力、对接能力、营销能力、渠道能力、服务能力、投资能力六大核心能力,将向合作伙伴全面开放。同时,中国联通还建立了分级、分层、分梯次的合作体系,提供便捷、高效的沟通渠道及合作门户,根据不同资源禀赋的合作伙伴,匹配差异化的资源、项目支持与合作力度。中国联通将与广大合作伙伴携手前行,共同开创智慧生态的新未来!
中国联通市场部总经理唐永博和百度SLG GTM总经理赵鹏回顾了一年以来双方的合作历程并分享了在智慧家庭生态方面的战略思考。
唐永博表示,2019年是中国联通智慧家庭业务的启动元年,取得了智慧家庭业务的显著成效,并且已用事实证明自身具有可为合作伙伴进行广泛且强大的赋能能力,与生态合作伙伴的能力互补,将会使智慧家庭业务走进更加广阔的市场。赵鹏表示,与联通一年以来的合作经历和成绩证明了联通可为合作伙伴进行广泛且强大的赋能,看到了联通开放的心态、积极的响应和勇于探索的精神,坚信百度与联通的合作,一定能迎接智慧家庭生态的美好未来。
视频业务作为中国联通大视频战略的基础业务,经过多年发展,中国联通已经构建形成覆盖TV屏、手机屏、VR屏及行业屏的视频产品体系,做到了全终端、全内容、全产品、全客户群的完整覆盖,形成支撑全国亿级用户,支持全渠道计费、全业务接入、全内容分发的融合大视频平台能力。
作为中国联通与合作伙伴共同打造的5G时代移动端视频产品,“沃视频”产品在本次大会中全新亮相,沃视频整合了包括4K超高清视频、VR视频、AR应用、5G游戏等多种新内容形式,向用户提供综合性娱乐体验的5G视频新产品。
本次大会上,中国联通重磅宣布,将面向广大合作伙伴开启5G泛智能孵化行动,采用“开放合作+自主定制”双管齐下的分类运营方式,分别打造消费类、行业类的多形态5G泛智能终端以及2C类数据终端产品,形成广泛而深远的行业示范效应。大会上,中国联通正式向与会嘉宾发出盛情邀请:有合作意愿的伙伴可通过5G泛智能孵化行动微信二维码或网上专区轻松加入联通5G泛智能孵化行动,我们期待与合作伙伴一起拉动5G泛智能终端、网络与应用,共筑5G新生态,共赢5G新蓝海!
会议最后,中国联通还以“联通赋能”为主题邀请合作伙伴代表进行了圆桌讨论。大家就如何将联通的核心能力与合作伙伴资源禀赋相结合,实现产业生态优势互补、合作共赢发表了各自的见解,并对未来与中国联通在共创智慧生态方面的合作前景进行了展望。中国联通将一如既往地以开放的胸怀,致力于联通产业各方,带动产业链健康发展,实现合作共赢。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了SPIRAL框架,通过让AI与自己对弈零和游戏来提升推理能力。实验显示,仅训练AI玩简单扑克游戏就能让其数学推理能力提升8.6%,通用推理提升8.4%,且无需任何数学题目作为训练材料。研究发现游戏中的三种推理模式能成功转移到数学解题中,为AI训练提供了新思路。
同济大学团队开发的GIGA-ToF技术通过融合多帧图像的"图结构"信息,创新性地解决了3D相机噪声问题。该技术利用图像间的不变几何关系,结合深度学习和数学优化方法,在合成数据集上实现37.9%的精度提升,并在真实设备上展现出色泛化能力,为机器人、AR和自动驾驶等领域提供更可靠的3D视觉解决方案。
伊利诺伊大学研究团队通过对比实验发现,经过强化学习训练的视觉语言模型虽然表现出"顿悟时刻"现象,但这些自我纠错行为并不能实际提升推理准确率。研究揭示了AI模型存在"生成-验证差距",即生成答案的能力强于验证答案质量的能力,且模型在自我验证时无法有效利用视觉信息,为AI多模态推理发展提供了重要启示。
MIT等顶尖机构联合提出SparseLoRA技术,通过动态稀疏性实现大语言模型训练加速1.6倍,计算成本降低2.2倍。该方法使用SVD稀疏性估计器智能选择重要计算部分,在保持模型性能的同时显著提升训练效率,已在多个任务上验证有效性。