
有模糊地带的地方,就是容易发生争执的地方。
好比说城市“耶稣撒冷”吧,它是重要的宗教圣地,但更准确的说,是几个重要宗教的共同圣地。这片土地的荣耀归属,也就成了一个模糊地带,无数的战火就因为这份“模糊”而引燃。
现在看起来,智能汽车,正在创造数字经济时代一个的模糊地带,一个新时代的“耶路撒冷”,那就是事故责任的认定。
汽车只要上路,就难免发生交通事故,而交通事故的定责过程,就是厘清模糊地带的过程。
早些年间,在马路上经常会看到事故车主双方,在街上吵架的场面。到底是你先压了线,还是我没躲开,其中确实有很多可以争论的地方。
无论怎么争,最后肯定要得出一个结论,或者是你方全责,或者是我方全责,或者责任均沾,总有一个车是有责任的。
但是在智能驾驶时代,责任的认定方却多了一个,那就是车本身。
《蜘蛛侠》中有句台词,能力越大,责任越大。当人工智能赋予车驾驶权的时候,事故的责任方,就多了一位,那就是——车自己。
最近的特斯拉事件,就把“车有责”的可能性,以及它可以创造的混乱,史无前例的在全社会做了一次知识科普。
无论大家喜欢或不喜欢,无论特斯拉的公关顽固或无脑,有一件事是确定的,那就是车的智能化过程,已经是不可逆的产业升级过程。
假设特斯拉退出了中国市场,我们也一定会看到“其他斯拉”智能汽车遇到同类事件。
尽管他们的公关可能会比特斯拉聪明,但是责任的认定过程,却依然不见得简单。
所以,当下一次涉及“车有责”嫌疑的事故发生后,我们应该怎么办?
当人们遇到关于未来的问题时,经常会发现,历史能告诉我们答案。
不知道大家有没有注意到,不经意间,现在马路上因为交通事故吵架的事儿越来越少了。
这肯定不是交通事故本身变少了,也不是司机文明程度提高了,答案在问题之外,是“保险”和“摄像头”的普及,让吵架变得没有意义。
交通摄像头的普及,让责任的认定变得清楚,责任的模糊地带变清晰了。
保险的普及,则让有责方的压力变小,吵架也就变得没有必要了,反正有人兜底(当然,路怒症除外)。
在智能驾驶时代,情况会变得有所不同。
由于人工智能的黑盒问题(外人无法完全窥探其内部规则),马路上的摄像头,能看清楚人类车主的相互责任,但是看不清“车”本身的责任。
所以,在智能驾驶时代,解决答案的途径看起来就只剩下一个了,那就是“保险”。用保险降低“定责”的压力,是解决问题的唯一途径。
但是应该说,在智能驾驶时代,“保险”还没有做好自己的准备。
现在的车保服务,是传统驾驶时代的产物,是决定驾驶员——“人”责的产品,全然没有考虑到“车”责的出现。
这也不能完全责怪保险公司,“车厂”本身也忽视了自己这份责任。
当任何一个具备理性的驾驶员,都不会在没有保险的情况,开车上路的时候。间接拥有“驾驶权”的车厂,却没有想到为自己的“汽车人”上一份保险。
我方无责,对方无责,车全责真发生的时候,没有一份保险的“车厂”,能完全负的起自己的责任吗,还是坚持说,自己一定没有责任?
有了碎屏险之后,手机厂商和手机用户也就不再纠结到底自己手机设计的太光滑,还是用户自己使用不当了。
如果责任的认定过程只能像一部阿加莎·克里斯蒂的小说,“汽车”自己本身有一份保险,则可以让猜测嫌疑犯先放在一边。
汽车,已经成为数字经济文明的下一个战略高地,无数的力量正在向它冲锋,有传统车厂,有科技公司,有互联网公司,有地产公司。
智能汽车天赐良机,人人都有把这事做成的理由。
从舆论场和商战的角度,智能汽车自己也是一个商业机遇的“耶路撒冷”。
《耶路撒冷三千年》写到,这片土地是三大宗教(各种产业力量)的圣地(新蓝海),更是文明冲突的战略要冲,她是让世人魂牵梦绕的去处,也是惑人的阴谋与虚构的网络传说和二十四小时新闻发生的地方。
这段话,确实也很像写给智能汽车的“最近三个月的”的历史的。
好文章,需要你的鼓励
这项由Snowflake AI Research发表的研究挑战了传统语言学对大型语言模型的批评,通过引入波兰语言学家Mańczak的理论框架,论证了LLM的成功实际上验证了"频率驱动语言"的观点。研究认为语言本质上是文本总和而非抽象系统,频率是其核心驱动力,为重新理解AI语言能力提供了新视角。
freephdlabor是耶鲁大学团队开发的开源多智能体科研自动化框架,通过创建专业化AI研究团队替代传统单一AI助手的固化工作模式。该框架实现了动态工作流程调整、无损信息传递的工作空间机制,以及人机协作的质量控制系统,能够自主完成从研究构思到论文发表的全流程科研工作,为科研民主化和效率提升提供了革命性解决方案。
德国马普智能系统研究所团队开发出专家混合模型的"即时重新布线"技术,让AI能在使用过程中动态调整专家选择策略。这种方法无需外部数据,仅通过自我分析就能优化性能,在代码生成等任务上提升显著。该技术具有即插即用特性,计算效率高,适应性强,为AI的自我进化能力提供了新思路。
Algoverse AI研究团队提出ERGO系统,通过监测AI对话时的熵值变化来检测模型困惑程度,当不确定性突然升高时自动重置对话内容。该方法在五种主流AI模型的测试中平均性能提升56.6%,显著改善了多轮对话中AI容易"迷路"的问题,为构建更可靠的AI助手提供了新思路。