试想,2023年自动驾驶车穿梭于大街小巷。若不幸发生了交通事故,行人被撞身亡,媒体将争相报道。这场官司必将引发广泛关注,但究竟该如何审判,依据是什么?
如今,英国布莱顿大学的John Kingston给出了一个答案,但有些差强人意,他提出了AI领域的刑事责任理论,并指出自动化、计算机和法律领域需改变态度,谨慎应对等关键问题。
争论的核心在于人工智能系统能否自行承担刑事责任。Kingston称,以色列奥浓科学院的Gabriel Hallevy对此问题进行了深入研究。
构成刑事责任通常需要明确其行为和意图(法律术语为actus rea 和 mens rea)。Kingston称Hallevy描绘了AI系统可能涉及的三种刑事犯罪情况。
,肇事者为存在精神缺陷的人或动物,此类肇事者无需承担法律责任。但任何操纵精神病患者或动物实施犯罪的人均需承担相应刑事责任。例如,狗主人命令狗袭击他人。
再比如,智能机器的设计者及使用者。Kingston表示:“AI项目可能被当作无辜的工具,而利用它实施犯罪的软件编程师或用户则为间接犯罪的主谋。”
,即指因不当使用AI系统导致的犯罪。Kingston以日本摩托车工厂智能机器人杀人案件为例,解释道:“机器人将工人误认为危险对象,采取消除威胁的最有效方式,挥动力大无穷的液压悬臂,将毫无防备的工人推入机器,迅速结束了他的生命,然后继续执行工作任务。”
此案例的关键问题在于该机器的编程师是否已知此类机器的功能缺陷及可能带来的后果。
,如果AI系统的作为或疏忽不作为构成犯罪,则可直接证明其犯罪事实。
Kingston认为,犯罪意图虽然难以界定,但仍具参考价值,他表示:“超速属严格责任犯罪。因此根据Hallevy的说法,自动驾驶汽车如果超速行驶,法律上有充分理由追究驱动该汽车AI技术团队的刑事责任。”如此看来,车主无需担责。
接下来,涉及刑事辩护。被追究刑事责任的AI系统将如何辩护?Kingston列举了几种可能:AI程序是否可效仿精神病患者,以系统故障为由进行辩护?或效仿人类被迫或醉酒犯罪,将受电脑病毒袭击作为辩护理由?
这几种辩护情况并非凭空设想,Kingston分享了英国的一些案例,有计算机犯罪的相关责任人就以机器感染恶意软件为由,进行过成功辩护,并称恶意软件该负责。
某案例中,一名被控发起拒绝服务攻击的青少年黑客辩称,木马程序发动了此次攻击,该程序还在警方介入前清除了作案痕迹。
最后,涉及刑罚类型。既然AI系统是犯罪行为的直接责任方,那么应由谁来接受何种刑罚?这些问题尚不得而知。
但若AI系统触犯的是民法,就不应再追究其刑事责任。接着问题来了,AI系统究竟属于服务还是产品?
如果将AI系统视作产品,应根据产品保修证所提供的信息,运用产品设计法规处理案例。
如果将其视作服务,则存在过失侵权。这种情况下,原告通常需提供构成过失侵权的三要素。其一,需证明被告有看管义务。Kingston表示,尽管AI案件中没有明确界定看管标准,通常可直接证明。
其二,需证明被告存在失职。最后,还需证明该失职对原告造成了伤害。
然而,比这些条文更复杂的是,随着AI系统的能力愈发接近人类,甚至超越人类,其法律地位也将改变。
有一件事是肯定的:未来几年内,律师(或是替代他们的AI系统)会卷入越来越多的新奇案例纠纷中。
好文章,需要你的鼓励
现代大语言模型就像一栋拥有数百个房间的豪华大厦,每个房间(或称为"层")都执行特定的功能,共同协作完成复杂的语言理解和生成任务。然而,这些模型的规模已经变得如此庞大,以至于只有拥有高端计算资源的机构才能负担得起它们的运行成本。这就像一辆耗油量极大的豪华跑车,普通人负担不起它的燃料费用。
想象一下,当你在解答一道复杂的数学题时,你不仅需要给出答案,还需要详细解释每一步推导的理由,不能有任何逻辑跳跃或假设——这就是形式化数学推理的严格要求。
想象一下日常生活中我们使用的语音助手,比如Siri或ChatGPT。它们通常是这样工作的:你问一个问题,它回答,然后安静地等待你的下一个指令。这就像是一个只会被动回应的服务员,永远等待你的呼唤。而Voila团队认为,真正高级的AI助手应该更像一个时刻准备着的好朋友或队友,能够自然地融入你的生活节奏中。
想象一下,你正在参加一场料理比赛,有两位评委。第一位评委只给你一个分数,而第二位评委会详细解释你的菜品在口感、创意和技巧上的表现如何,然后才给出最终评价。显然,第二位评委的反馈对于你改进厨艺更有帮助。伊利诺伊大学研究团队正是秉持这一理念,开发了能像第二位评委那样工作的AI评估系统。