有模糊地带的地方,就是容易发生争执的地方。
好比说城市“耶稣撒冷”吧,它是重要的宗教圣地,但更准确的说,是几个重要宗教的共同圣地。这片土地的荣耀归属,也就成了一个模糊地带,无数的战火就因为这份“模糊”而引燃。
现在看起来,智能汽车,正在创造数字经济时代一个的模糊地带,一个新时代的“耶路撒冷”,那就是事故责任的认定。
汽车只要上路,就难免发生交通事故,而交通事故的定责过程,就是厘清模糊地带的过程。
早些年间,在马路上经常会看到事故车主双方,在街上吵架的场面。到底是你先压了线,还是我没躲开,其中确实有很多可以争论的地方。
无论怎么争,最后肯定要得出一个结论,或者是你方全责,或者是我方全责,或者责任均沾,总有一个车是有责任的。
但是在智能驾驶时代,责任的认定方却多了一个,那就是车本身。
《蜘蛛侠》中有句台词,能力越大,责任越大。当人工智能赋予车驾驶权的时候,事故的责任方,就多了一位,那就是——车自己。
最近的特斯拉事件,就把“车有责”的可能性,以及它可以创造的混乱,史无前例的在全社会做了一次知识科普。
无论大家喜欢或不喜欢,无论特斯拉的公关顽固或无脑,有一件事是确定的,那就是车的智能化过程,已经是不可逆的产业升级过程。
假设特斯拉退出了中国市场,我们也一定会看到“其他斯拉”智能汽车遇到同类事件。
尽管他们的公关可能会比特斯拉聪明,但是责任的认定过程,却依然不见得简单。
所以,当下一次涉及“车有责”嫌疑的事故发生后,我们应该怎么办?
当人们遇到关于未来的问题时,经常会发现,历史能告诉我们答案。
不知道大家有没有注意到,不经意间,现在马路上因为交通事故吵架的事儿越来越少了。
这肯定不是交通事故本身变少了,也不是司机文明程度提高了,答案在问题之外,是“保险”和“摄像头”的普及,让吵架变得没有意义。
交通摄像头的普及,让责任的认定变得清楚,责任的模糊地带变清晰了。
保险的普及,则让有责方的压力变小,吵架也就变得没有必要了,反正有人兜底(当然,路怒症除外)。
在智能驾驶时代,情况会变得有所不同。
由于人工智能的黑盒问题(外人无法完全窥探其内部规则),马路上的摄像头,能看清楚人类车主的相互责任,但是看不清“车”本身的责任。
所以,在智能驾驶时代,解决答案的途径看起来就只剩下一个了,那就是“保险”。用保险降低“定责”的压力,是解决问题的唯一途径。
但是应该说,在智能驾驶时代,“保险”还没有做好自己的准备。
现在的车保服务,是传统驾驶时代的产物,是决定驾驶员——“人”责的产品,全然没有考虑到“车”责的出现。
这也不能完全责怪保险公司,“车厂”本身也忽视了自己这份责任。
当任何一个具备理性的驾驶员,都不会在没有保险的情况,开车上路的时候。间接拥有“驾驶权”的车厂,却没有想到为自己的“汽车人”上一份保险。
我方无责,对方无责,车全责真发生的时候,没有一份保险的“车厂”,能完全负的起自己的责任吗,还是坚持说,自己一定没有责任?
有了碎屏险之后,手机厂商和手机用户也就不再纠结到底自己手机设计的太光滑,还是用户自己使用不当了。
如果责任的认定过程只能像一部阿加莎·克里斯蒂的小说,“汽车”自己本身有一份保险,则可以让猜测嫌疑犯先放在一边。
汽车,已经成为数字经济文明的下一个战略高地,无数的力量正在向它冲锋,有传统车厂,有科技公司,有互联网公司,有地产公司。
智能汽车天赐良机,人人都有把这事做成的理由。
从舆论场和商战的角度,智能汽车自己也是一个商业机遇的“耶路撒冷”。
《耶路撒冷三千年》写到,这片土地是三大宗教(各种产业力量)的圣地(新蓝海),更是文明冲突的战略要冲,她是让世人魂牵梦绕的去处,也是惑人的阴谋与虚构的网络传说和二十四小时新闻发生的地方。
这段话,确实也很像写给智能汽车的“最近三个月的”的历史的。
好文章,需要你的鼓励
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。
这篇论文介绍了LegalSearchLM,一种创新的法律案例检索方法,将检索任务重新定义为法律要素生成。研究团队构建了LEGAR BENCH数据集,涵盖411种犯罪类型和120万案例,并开发了能直接生成关键法律要素的检索模型。实验表明,该模型在准确率上超越传统方法6-20%,且在未见犯罪类型上展现出强大泛化能力。这一突破为法律专业人士提供了更高效、精准的案例检索工具。