
CNET科技资讯网 4月15日 北京消息(文/齐丰润): 交通问题现在已经成为了许多城市面临的共同问题,而随着互联网的飞速发展,城市交通问题也迎来了全新解决方式,借助移动互联网、物联网、大数据、云计算与云服务等技术的智慧出行,逐渐展现出了巨大的市场潜力。
4月15日,由中国建投集团与FT中文网主办,建投华科协办的“+互联网,出行改变未来”的JIC投资沙龙在北京举办,沙龙现场分享了关于智慧出行的话题。同时也指出,短途智慧出行的市场空间巨大,专车市场规模达到千亿级别。
智能交通是指借助移动互联网、云计算、大数据、物联网等先进技术和理念,将传统交通运输业和互联网进行有效渗透与融合,形成具有“线上资源合理分配,线下高效优质运行”的新业态和新模式。
建投华科认为,缓解城市拥堵的需求;新兴技术的日趋成熟;国家政策的支持,是智能交通市场保持高速增长的主要驱动力。未来,智能交通和“交通行业+互联网”领域将在三大驱动力的推进下高速发展。因此,智能交通行业蕴藏着较多的投资机会,在细分领域中,汽车租赁、在线专车和分时租赁等创新模式无疑将成为资本的宠儿。
2015年底,建投华科领投首汽约车A轮融资,这是建投华科在布局智能出行领域迈出的关键一步。建投华科认为,专车市场目前是被资本追捧的热门领域之一。以首汽约车为代表的“正规军”由此成为专车市场新的闯入者和新政的受益者。
在今年年初国务院召开的座谈会上,李克强总理提出,大企业、老产业也要开展“双创”,主动“+互联网”,通过众创、众筹等方式,实现个性化设计、柔性化制造、网络化营销,以模式创新促进传统产业焕发生机,“传统产业+互联网”的时代正在到来。
中国建投有限责任公司副总裁黄建军在发言中表示:“传统产业加互联网的时代正在到来。今年是我国推进结构性改革的攻坚之年,在互联网技术的推动下,我国互联网经济的增长动力正在从投资出口驱动向消费驱动转变,对于正处在供给侧改革攻坚的我国经济来说是巨大的机遇和不小的挑战。”
据悉,智慧出行领域仅仅是建投华重点关注的投资领域之一,除此之外,远程医疗、互联网教育、智能制造、消费服务、信息安全、云计算、传统行业的互联网升级等领域都是建投华科关注的领域。
建投华科投资股份有限公司副总经理、执行董事吴硕也在发言中表示:“传统产业+互联网升级改造过程中,我们重点关注目前一些热点领域。通过专车和传统的出行进行行业良性的互补,添补目前出租车和公共交通未能覆盖的一些短途出行的需求。”
同时吴硕还表示,“未来,我们的投资逻辑将围绕,有人愿意为效率提升买单;通过投资运行要嫁接供应链金融的产品;新能源汽车普及率的提升;出行的消费升级这四个方向。未来中国建银投资集团和建投华科将持续关注智能交通领域,围绕行业进行更多的产业上下游的布局,以资本的力量参与传统交通行业的改革升级。”
好文章,需要你的鼓励
本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。
这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。
中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。
这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。