科技行者 5月17日 北京消息:5月15日上午,第三届世界智能驾驶挑战赛于天津东丽开幕。天津市政府副市长姚来英,中国工程院院士、中国人工智能学会理事长李德毅,中国汽车技术研究中心有限公司党委书记、董事长、总经理于凯,中国生产力促进中心协会理事长刘玉兰,天津市工信局局长尹继辉,天津市东丽区委书记夏新,中国科学院自动化所国家重点实验室主任王飞跃,中国人工智能学会智能驾驶专业委员会主任邓伟文,北京联合大学副校长鲍泓,中国指挥与控制学会副秘书长刘玉超等领导以及参赛代表德国车队领队Baris Can(音译:巴瑞斯-肯)出席开幕式。天津市东丽区委副书记、区长谢元主持开赛仪式。
第三届世界智能驾驶挑战赛作为第三届世界智能大会的重要组成部分,坚持以“高起点、入主流、国际化、有特色”为目标。大赛由国家发展和改革委员会、科学技术部、工业和信息化部、国家新闻出版广电总局、国家互联网信息办公室、中国科学院、中国工程院、中国科学技术协会和天津市人民政府主办,由中国汽车技术研究中心有限公司、中国生产力促进中心协会、中国人工智能学会智能驾驶专业委员会和天津市东丽区人民政府承办。
本届世界智能驾驶挑战赛由“一赛、一会、一展示体验”组成。“一赛”为世界智能驾驶挑战赛——该赛事致力于打造世界级智能汽车品牌赛事,搭建全球性智能汽车交流平台,构建国际化技术实践测评标尺,旨在通过智能网联、信息安全、无人驾驶等一系列立体化、实践性、全方位的测评,为智能汽车科技进步、标准法规交流、社会公众科普提供权威、公正、第三方的服务。据悉,本届赛事共有84支参赛队伍,其中有四方面赛事内容的调整:一是在赛事的组别方面,设置无人驾驶挑战赛、信息安全挑战赛和虚拟场景挑战赛等三个组别,不再设置智能辅助比赛;二是无人驾驶挑战赛的组成由第二届的三项比赛调整为四项,包括乡村越野赛、高速公路赛、城市街区赛和IEC极限赛,今年新增加了IEC极限赛,以测试参赛车辆在路径规划、伦理困境等方面的判断能力;三是调整了无人驾驶挑战赛各比赛场景和场景数量,其中乡村越野赛设置了16个场景,城市街区赛设置了21个场景,高速公路赛设置了5个场景,IEC极限赛设置了3个场景,场景的变化提高了比赛的难度,以适应智能网联汽车技术的发展需求;四是信息安全挑战赛改变了赛制,设置了初赛、复活赛、决赛和附加赛共四个阶段,其中的附加赛可根据参赛队伍的自身情况选择参加与否,赛制的改变提高了该项目的观赏性。
“一会”为世界智能驾驶产业论坛——该论坛围绕人工智能与自动驾驶、车联网与信息安全、政策标准与法律伦理、共享出行与智慧交通等领域,以智能网联汽车的商业化发展为研讨方向,共同探讨智能化与网联化的汽车科技发展进程,共同分享产业创新合作成就,共同谋划应用前景。中国人工智能学会理事长、中国工程院院士李德毅,中国智能交通协会理事长李朝晨,中国汽车技术研究中心有限公司党委书记、董事长、总经理于凯,天津市东丽区委书记夏新,中国汽车技术研究中心有限公司副总经理李洧,中国人工智能学会智能驾驶专业委员会主任邓伟文,雅典科学院士George A. Giannopoulos,中国科学院自动化研究所复杂系统管理与控制家重点实验室主任王飞跃,江铃工程研究院智能电子开发部副部长陈立伟,驭势科技联合创始人吴甘沙,禾多科技创始人CEO倪凯等领导以及国内外专家将出席论坛现场。
“一展示体验”为世界智能驾驶科技示范体验项目——该展示体验项目设置于封闭园区、城市开放道路和真实的高速公路等多种类型场景中,主要围绕智能网联汽车相关的静态产品展览展示、无人小巴和自动驾驶出租车(RoboTaxi)试乘体验、无人物流车的应用体验、无人驾驶乘用车在高速公路上示范展示、V2X车辆编队、5G远程自动驾驶示范展示等系列活动进行展示,以增强无人驾驶车辆与普通公众之间近距离互动体验,全面推动无人驾驶车辆产业化落地的进程,开启智能网联汽车商业化运营元年。据悉,世界智能驾驶科技示范体验项目参与机构共16家,其中,一汽奔腾、禾多科技、镭神智能、Autoware Foundation & 香港生产力促进局、AutoCore英国、中国一汽智能网联开发院、TierIV、驭道无驾、京东X事业部、江铃新能源、51VR、一体化指挥调度实验室等企业与机构参与该活动。
赛事期间,上百位智能驾驶领域的行业领袖和专业学者参与观摩。大赛将通过中央电视台、新华社、中国日报等上百家国内外媒体进行全程报道,为公众呈现一场世界顶级的智能驾驶科技盛宴。
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。