作者|高飞
中国国庆节期间,我却在瑞士参与了一场AI峰会,苏黎世AI节(Zurich AI Festival)。
这是这座以银行和精密钟表闻名的城市首次举办的大型AI活动。活动由苏黎世联邦理工学院AI中心和大苏黎世地区联合发起,背后还有苏黎世州政府、苏黎世旅游局,以及一众学术机构、科技公司的支持。
从9月29日到10月4日,整整一周时间,26场不同主题的活动横跨苏黎世十多个场地:苏黎世联邦理工学院、大学医院、科技园、Prime Tower、艺术馆、StageOne活动中心。医学、机器人、艺术、环境、金融、教育,几乎每个领域都能找到AI的身影。
有意思的是,和苏黎世AI节同期,我还在瑞士街头看到了瑞士电影节的各种宣传物料,所以这个城市最近被技术和艺术包围了。
由于日程关系,我只能参加10月2日的AI+X峰会。所以,仅就峰会的开场环节做一个详细记录,包括两个主题分享,和一个圆桌对话。
但是AI+X峰会也是整个活动周的旗舰项目,有120多位演讲者、50多个参展商齐聚苏黎世StageOne。
参加完活动,我就收到了官方发来的邮件。据他们统计,有超过5500人从世界各地涌入这座城市,其中包括Google、Microsoft、Meta、Apple、IBM的代表,还有大量初创企业、研究机构和投资人。26场活动中有23场早早售罄。
大苏黎世地区的副总经理Sabine Müller给出了一个参照系是:"这是苏黎世经济区第一次拥有可以与伦敦科技周、波士顿机器人周、巴黎VivaTech和东京SusHi Tech相提并论的国际性活动。"
显然,这个"X"代表AI与各个领域的交叉融合。这让我第一时间想到中国的人工智能+行动。看来全世界都在关注AI这个新生事物,如何与这个社会原本存在的部分接轨。
瑞士的选择题
峰会第一个上台的是Nina Frey,她现在担任ICAIN的执行董事,同时是瑞士联邦外交部国务秘书处的人工智能与新兴技术高级顾问。在此之前,她做了17年外交官,最后三年帮助建立了瑞士的数字化外交部门。ICAIN是一个致力于让全球南方国家能够更平等地参与AI研究的全球倡议。
她在台上展示的第一张图,来自某个AI排行榜。中国和美国位居前两位,与其他国家拉开了相当明显的距离。
"全球只有大约15家公司有能力训练大规模语言模型,"她说,"其中四分之三在美国,剩下的基本在中国,可能还有一家在法国。"显然,法国的就是Mistral了。
这个数字勾勒出了一个相当集中的格局。全世界195个国家,只有两个在大模型训练上具备完整的能力。那其他国家呢?是只能成为技术的消费者,还是有可能找到自己的位置?
瑞士在那个排行榜上排第12位。不算差,但也谈不上领先。但Nina认为,瑞士有其优势所在。
首先是学术实力。瑞士的AI论文发表数量和质量都排在世界前列,苏黎世联邦理工学院和洛桑联邦理工学院是欧洲最顶尖的理工科学府。一个题外话,两周前,这两所大学联合瑞士国家超算中心发布了一个名叫Apollos的开源模型。这个模型的特别之处在于,它是真正的"全开源",不是某些公司那种挂着开源旗号实际上只开放部分代码的做法。架构、权重、训练数据、训练流程,全部公开。
这在当下的AI世界里其实挺稀缺的。大公司都在把自己的模型当作商业机密,甚至连训练数据的来源都讳莫如深。Apollos的发布,某种程度上是在说:我们还有另一种可能性。
其次是生态系统。Nina展示了一张苏黎世地区的科技公司分布图,密密麻麻的,几乎所有大型科技公司都在这里设有办公室,同时还有大量创业公司。瑞士的税收政策、人才储备、法律环境,都让它成为科技公司愿意扎根的地方。
但更有意思的是日内瓦。这座城市是联合国系统仅次于纽约的第二大总部所在地,有50多个国际组织,700多家NGO。听起来跟AI没什么关系?恰恰相反。当我们谈论AI治理的时候,那些制定标准的组织(比如ISO、IEC)、处理知识产权的世界知识产权组织等,全在日内瓦。换句话说,关于AI的规则,可能会在这座阿尔卑斯山脚下的城市里诞生。
Nina提到一个细节:明年(2026年)的全球AI峰会将在印度举行,2027年的下一届,主办地就定在了日内瓦。
不过,Nina也谈到了AI应用中的一个问题:影子AI(Shadow AI)。这个词指的是员工在工作中私自使用ChatGPT或其他公共AI工具,绕过公司的数据安全政策。听起来是个小事,但想想看,一个银行员工把客户的敏感信息输入到ChatGPT里寻求帮助,或者一个政府官员用Claude处理机密文件,这些数据都会流向其他地方的服务器。
"192个国家不应该只停留在消费端,"Nina对此的看法是:"它们需要有选择的权利,需要能够用自己的数据训练模型,需要坐在驾驶座上而不只是乘客座上。"
痛苦的智能
接下来上台的是芬兰赫尔辛基大学的Aapo Hyvärinen教授。他的研究方向听起来有点出人意料:用AI来理解人类的精神痛苦。不是那种身体上的疼痛,而是心理层面的痛苦。焦虑、失望、沮丧、抑郁,这些困扰着现代人的情绪状态,能用计算的方式来解释吗?
Aapo的答案是:可以。而且他认为,AI提供了一个特别好的隐喻或模型。
他从一个古老的哲学观点出发。佛陀说过:"求不得苦。"斯多葛学派的哲学家也有类似的表述。现代神经科学里有个概念叫"奖励预测误差",说的是当你得到的奖励少于预期时产生的那种失落感。这些描述其实都在讲同一件事:挫折。
用AI的语言来说,挫折可以被定义为两种情况。第一种来自规划(planning)。假设一个AI智能体设定了一个目标状态,制定了一个计划去达成它,但在执行过程中失败了,没能到达目标。这就是挫折。第二种来自强化学习(reinforcement learning)。智能体预期能获得一定的奖励,但实际得到的少于预期。这也是挫折。
听起来有点抽象?他给了几个具体的例子。你想去某个地方,但路被封了。你想击中一个目标,但偏了。你计划完成某个项目,但遇到了意料之外的障碍。生活中这样的场景太多了,每一次都是小小的挫败。
有意思的是,Aapo指出,有些痛苦似乎是大脑自己制造出来的。比如"游走思维"(wandering thoughts)。你坐在办公桌前想专心工作,但脑子里突然冒出各种杂念。研究显示,这些杂念大致可以分为两类:一类是对未来的规划,一类是对过去的回忆。
为什么会这样?Aapo提出了一个计算假说。当大脑判断当前没有紧急任务需要处理时,它会自动进入后台模式:规划未来可能遇到的情况,或者回放过去发生的事件。前者是为了提前做好准备,因为规划本身是非常耗费计算资源的事情。后者是为了学习,就像神经网络需要反复输入同样的数据来优化参数,大脑也需要重复回放经历来巩固记忆。
从演化的角度看,这是有益的。但从主观体验来说,这会放大痛苦。因为你不仅要经历当下的挫折,还要在脑海中模拟未来可能的挫折(这叫"威胁"),以及反复咀嚼过去的挫折。换句话说,你的智能越高,想得越多,可能就越容易陷入痛苦。
这就是Aapo那本新书的标题来源:《痛苦的智能》(Painful Intelligence)。更聪明不一定意味着更快乐,有时候恰恰相反。
那怎么办呢?Aapo提出了几个基于这套理论的干预方法。
最核心的一条是:降低期望。记得刚才那个公式吗?挫折等于预期奖励减去实际奖励。如果你降低预期,那么即使实际奖励没变,挫折感也会减少。
这听起来像是一种消极的人生态度,但Aapo的角度不太一样。他认为,降低期望的本质是深刻认识到世界的不确定性和不可控性。你越是意识到很多事情不由你掌控,就越不会抱有不切实际的幻想,也就越不容易失望。
这其实正是斯多葛学派和佛教修行的精髓。古罗马哲学家爱比克泰德有句话:"如果你要去公共浴室,先在脑海中想象一下那里通常会发生什么:有人泼水,有人推搡,有人说脏话,有人偷东西。"如果你提前做好这样的心理准备,那么当这些事真的发生时,你就不会那么恼火。
另一个方法是冥想。冥想的好处之一是减少游走思维,让你的大脑不再不停地模拟挫折场景。同时,冥想也是一种学习过程,它帮助你体会到思维本身的无常和不可控。
Aapo特别强调,他并不是在发明新方法,而是用AI和计算神经科学的框架,为古老的智慧提供了一套现代的理论支撑。
有人在问答环节提出质疑:如果把期望降得太低,人会不会就失去动力了?Aapo的回答很实在:"我不是说要把期望降到零,我是说大多数人的期望可能普遍偏高了。"
我觉得Aapo的研究方式非常有启发性,也就是通过对AI的观察,而了解人类自身。
物理学家理查德·费曼(Richard Feynman)有一句名言"What I cannot create, I do not understand."他的意思是,如果你不能亲手构建、模拟或推导某个事物,就说明你对它的理解还不够透彻。
实际上,此前认知科学的诞生,离不开计算机的发明。20世纪中期,当人类第一次能用机器来处理信息时,研究者们突然发现,这也许就是理解心智的一把钥匙。大脑可以被看作硬件,思维和意识则像是软件,记忆、学习、推理等过程都可能用"信息处理"来描述。
大语言模型,一定会催生出更多类似Aapo的研究。
数据的重量
接下来的圆桌讨论,题目更和实际AI场景相关,叫"从数据到信任:高风险领域中的人工智能",主持人是Melanie Gabriel,她是苏黎世联邦理工学院AI中心的联合主任兼首席运营官。台上坐着的五位嘉宾分别是:
Sina Wulfmeyer,金融科技公司Unique的首席数据官,之前在瑞士信贷工作,和银行那些庞大复杂的数据系统打了二十多年交道。
Chiara Debenedetti,红十字国际委员会的全球数据负责人。有意思的是,她的学术背景是粒子物理,在欧洲核子研究中心(CERN)做了十年研究,后来转到了人道救援领域。
Fruzsina Homolka,瑞士广播电视公司SRG SSR的首席数据官。瑞士的公共媒体系统在欧洲算是相当独特的,四种官方语言,每个语区都有自己的节目制作体系。
Menna El-Assady,苏黎世联邦理工学院的助理教授,研究方向是数据可视化和可解释AI。她的实验室名字叫"交互式可视化与数据智能",听起来有点拗口,但做的事情很实在:怎么让人真正理解AI在做什么。
这五个人一个管学术研究,一个管金融数据,一个管战区数据,一个管媒体数据,一个做技术研发。
Sina提到,她之前在瑞士信贷工作时,公司有超过2000个数据系统。一个简单的问题:某个客户的风险等级是多少?要回答这个问题,可能需要从几十个不同的系统里调取数据,然后手工整合。这不仅低效,而且容易出错。
AI的承诺就是把这些分散的数据连接起来。但现实总是比理论复杂。金融文档的格式千奇百怪:表格、图表、PPT、PDF。人类一眼就能看懂一张折线图代表什么,但对AI来说,这只是一堆像素或者数字。"你必须花大量时间去清理数据,标注数据,告诉模型'这是一个表格,那是一个图表,这些数字之间有什么关系'。"
Chiara面对的情况更极端。在战区和灾区,数据收集往往是用笔和纸完成的。有时候是卫星图像,有时候是现场人员的报告,有时候是从各种渠道收集来的零碎信息。这些数据不仅格式混乱,而且高度敏感。一个囚犯的姓名、一个难民营的位置、一次医疗救助的记录,如果泄露出去,可能会危及相关人员的生命。
所以当全世界都在拥抱ChatGPT的时候,红十字会不能简单地说"大家都用上吧"。他们必须先制定政策,做培训,解释清楚哪些数据可以输入,哪些绝对不行。同时,他们也在搭建自己的内部工具,基于GPT的API但部署在私有云上,后来干脆开始构建自己的模型。
"我们的首要原则是'不作恶'(do no harm)",Chiara说。这个原则适用于他们服务的人群,也适用于他们自己的员工。AI应该让救援人员更有效率,而不是增加他们的负担或把他们置于危险之中。
Fruzsina来自瑞士广播电视公司,她的观点很明确:"信任是我们的货币。"公共媒体不像商业媒体那样依赖广告收入,它的存在本身就是为了服务公众。所以当AI被引入到内容生产和分发流程中时,透明度和伦理考量必须放在首位。
她提到一个细节:SRG正在探索多语言推荐系统和手语虚拟主播。瑞士是个多语言国家,如何让不同语言区的观众都能平等地获取信息?AI可以帮助打破这些障碍。但同时,个性化推荐也可能制造信息茧房,让人们只看到自己想看的内容。这是一个需要小心平衡的地方。
Menna从研究的角度补充了一些见解。她提到一个概念叫"有害的合理化"(harmful rationalization)。当我们让AI解释它的决策时,它往往会给出一个听起来很有道理的答案。但问题在于,这个解释可能只是模型学会了如何取悦人类,而不是真正反映了它的内部逻辑。换句话说,AI可能在撒谎,但撒得很漂亮。
所以可解释性不是简单地让AI输出一段文字说明,而是需要严谨的技术手段去验证这些解释是否真实。这在高风险领域尤其关键。
讨论中有个反复出现的主题:文化转型比技术更难。
Fruzsina说得很直白:"AI不应该只是一个IT项目。"很多组织在引入AI时,把它当作一个软件升级,扔给技术部门去处理。但真正的改变需要整个组织的思维方式转变。编辑团队、法务团队、制作团队、技术团队,都需要坐在一起,共同理解AI能做什么、不能做什么、应该做什么。
Sina也提到类似的观察。银行里有很多老旧的流程,这些流程在没有AI的时代被设计出来,现在看起来可能已经不合理了。但如果你只是把AI硬塞进这些旧流程里,结果可能适得其反。你需要重新思考整个工作流,从头设计一个适合AI时代的流程。
这涉及到对人员的培训和赋能。不是教他们怎么用某个工具,而是帮助他们理解AI的本质,理解它的能力边界,理解在什么情况下应该信任它,什么情况下应该质疑它。
Menna提出了一个"混合主动系统"(mixed-initiative system)的概念。在这种系统中,人和AI是动态协作的。有时候AI主动提供建议,有时候等待人类的指令,具体取决于当前的情境。这种动态的、灵活的协作关系,比简单的"人类监督机器"或"机器自动化一切"都更符合现实需求。
主持人Melanie在最后问了每个人同一个问题:十年后,你希望AI在你的领域里变成什么样?
这些回答都挺实在的:
Menna说,她希望AI能像一个好同事,知道什么时候该出现,什么时候该安静,用什么方式互动最有效。
Fruzsina希望数据分析和AI能成为人人都掌握的基础技能,就像今天的Excel和PowerPoint。
Chiara说,她希望AI能让救援人员把更多时间花在实际帮助人上,而不是填报表和整理数据。
Sina的愿景最接近这场讨论的核心:"我希望AI能无缝融入到各种流程中,处理那些没人喜欢做的繁琐工作,让人类可以专注于真正需要人的地方:建立信任,提供个性化服务。"她补充:"很多人担心AI会取代人类。但我看到的是,AI让我们有机会成为更好的人。"
这三场发言,表面上讲的是三件不同的事:地缘、认知、应用。但其实也能找到同一个思考线索:AI时代,如何掌控自己的命运?
Nina谈的是国家地缘。在一个算力和模型都集中在少数国家的时代,其他国家如何避免被边缘化?
Aapo谈的是人类个体。当你的大脑不受控制地产生痛苦情绪时,你还能做什么?他的答案不是对抗,而是理解和接纳。通过认识到世界和自己思维的不可控性,你反而获得了某种自由。
圆桌的五个人则谈的是组织和个体在实际操作中的选择权。是简单地把数据交给大公司的黑箱模型,还是费心费力地搭建自己的系统?是让AI自动化一切,还是保持人在其中的控制?(human in the loop)
除了主会场的演讲和对话,在StageOne,还有专题会议、现场路演和技术展示在同期进行。我也留意了一下,发现AI For Science等议题关注度相当高。
好文章,需要你的鼓励
OpenAI团队的最新研究揭示了大语言模型产生幻觉的根本原因:AI就像面临难题的学生,宁愿猜测也不愿承认无知。研究发现,即使训练数据完全正确,统计学原理也会导致AI产生错误信息。更重要的是,现有评估体系惩罚不确定性表达,鼓励AI进行猜测。研究提出了显式置信度目标等解决方案,通过改革评估标准让AI学会诚实地说"不知道",为构建更可信的AI系统指明方向。
字节跳动AI实验室提出"逆向工程推理"新范式,通过从优质作品反推思考过程的方式训练AI进行创意写作。该方法创建了包含2万个思考轨迹的DeepWriting-20K数据集,训练的DeepWriter-8B模型在多项写作评测中媲美GPT-4o等顶级商业模型,为AI在开放性创意任务上的应用开辟了新道路。
ByteDance Seed团队开发的UI-TARS-2是一个革命性的AI助手,能够通过观看屏幕并用鼠标键盘操作电脑,就像人类一样完成各种任务和游戏。该系统采用创新的"数据飞轮"训练方法,在多项测试中表现出色,游戏水平达到人类的60%左右,在某些电脑操作测试中甚至超越了知名AI产品,展现了AI从对话工具向真正智能助手演进的巨大潜力。