
无人车又卷入了一起车祸。不过这一次,它成了受害者。
当地时间周五下午一点左右,山景城的一个十字路口,绿灯亮起 6 秒钟后,一辆 Google 无人驾驶测试车雷克萨斯 RX450h 起步。没等他穿过路口,右侧一辆商务车无视红灯开了过来,和雷克萨斯结结实实地撞在了一起。Google 无人车右侧严重损毁。
幸运的是,无人车上的乘客和商务车司机都没有受伤。目前消息来看,此次事故的主要责任方应该是商务车司机。
Google 官方表示将会在本月底公布事故详细信息。回溯以往的消息,这次极有可能是 Google 无人车遭遇的最严重的一次车祸。
今年 2 月底,Google 的另一辆无人车在变道时误判了后方大巴司机的驾驶行为,它本以为司机会减速等待它变道,实际情况却正好相反。两者发生轻微的刮蹭,无人车撞到了大巴的一侧车身,前护栏、车轮和传感器受损。
Google 多次通过官方渠道用数据和案例证明粗心大意的人类在开车这件事上有多么不靠谱。比如说,94% 的车祸是由于司机的不当操作引起的,路怒、无耐心、精力不集中等是司机的通病。无人车就没有这种毛病,它拥有 360 度的视角去监视路况,规避行人,不会路怒,不会失去耐心。绿灯亮起后数秒钟起步可以部分说明这个问题。
关于无人车的守规矩我们前几天乘坐福特无人车兜风的时候,已有体验。改装后的蒙迪欧在左转时监测到后方有行人通过马路来了个急刹车:
它绝对是我见过的最礼貌的司机。见到行人,车子会早早地停下来,直到行人完全离开车道才开始启动;在变道之前会打转向灯,转向灯几秒后才会变道;加速减速平稳流畅,也会在适合的情况下以限速速度前进。
然而当无人车遇到有情绪会分心的人类司机,情况就会变得复杂起来。这也是在今后很长一段时间内会存在的问题,无人车和人类司机并行在城市街头,对交通规则的遵守,对驾驶行为和路人、非机动车的预判,两者会存在巨大的差异。
即便现有的交通法规会对无人车和人类司机一视同仁,但两者对于法规的解读却各有不同。在无人车一统天下之前,人类难以预测的行为带给 Google、Uber、福特等无人驾驶探路者的挑战可能比无人驾驶所涉及的机器视觉、传感技术本身更有难度。
好文章,需要你的鼓励
这项由IIT马德拉斯与BITS Pilani联合发布的研究(arXiv:2604.21523,2026年4月)构建了FOCUS元评估基准,系统检验了评审型视觉语言大模型的可靠性。通过向超过4000个图文和图像样本中注入40种受控错误,研究发现顶尖评审AI的检测失败率在某些条件下超过50%,物理合理性和视觉细节类错误尤为难以被发现,两两比较是最可靠的评审范式。
这篇由Sylph.AI发布的技术报告提出了一套两层自动化框架,核心思想是让AI自动优化自身的运行脚手架,再进一步让AI学会如何更高效地做这种优化。内层的脚手架进化循环通过工人代理、评估代理和进化代理的协作,自动迭代改进单个任务的运行配置;外层的元进化循环则在多个任务上训练,学习一套能快速适应任何新场景的通用进化蓝图,从而彻底消除人工脚手架工程的需求。
这篇由英伟达等顶尖机构联合发表的论文提出了一种名为Voyager的新型智能体。研究团队以《我的世界》为实验平台,通过引入自动课程规划、技能库存储以及迭代反馈机制,成功让大语言模型主导的AI在完全无人类干预的情况下,实现了在复杂开放世界中的自主探索与终身学习。实验数据表明,Voyager在物品收集、探索范围及技能解锁速度上均呈现出远超传统方法的压倒性优势,为未来开发能够自主解决真实物理世界复杂任务的通用人工智能奠定了关键的理论与实践基础。
这项由伊利诺伊大学、斯坦福大学、英伟达和麻省理工学院联合发布的研究(arXiv:2604.25917,2026年4月)提出了RecursiveMAS框架,让多个异构AI模型通过轻量级模块RecursiveLink在内部信号层面直接传递"潜在思想",形成循环协作,彻底绕开了传统多AI系统依靠文字传话的低效方式。配合两阶段内外循环训练策略,整个系统只需优化极少量参数,就能在数学、科学、代码生成和搜索问答等9个基准测试上取得平均8.3%的精度提升,同时实现最高2.4倍推理加速和75.6%的token用量削减。