斯蒂芬·霍金貌似快变成了一个身上挂着广告牌的男人,牌上写着:“末日就要来临了。”
他不仅警告我们外星人可能会摧毁人类,还担心人工智能或许也会摧毁人类。
如今他又察觉到一个威胁,而这个威胁可能不仅仅会终结地球,而且会终结整个宇宙。
据英国《星期日泰晤士报》报道,霍金正在为上帝粒子(the God particle)感到担忧。物理学家们在欧洲核子研究组织(CERN)用大型强子对撞机 (Large Hadron Collider)进行实验期间发现了上帝粒子,对于解释世界上的物体为何会有质量这个问题,上帝粒子是一个至关重要的因素。
然而,一本名为《Starmus》的新书收藏了一些著名科学家和天文学家发表的讲座,在该书前言中,霍金担心希格斯玻色子(Higgs Boson)可能会变得不稳定。
他写道:“希格斯粒子可能会在1000亿吉电子伏特(GeV)以上高能量水平下变至亚稳态,这个潜在的特性令人担忧。”
那么,这可能会导致什么后果呢?霍金解释道:“这大概意味着,宇宙可能会遭受灾难性的真空衰变,届时这一真真空泡沫会以光速膨胀。这在任何时候都可能会发生,我们不会看到它的到来。”
在人们准备将其挚爱的人送至一些遥远的恒星来避免这场灾难前,霍金确实为我们提供了一些希望,但仿佛还是带着一丝苦笑,他说道:“一个能够达到1000亿吉电子伏特能量的粒子加速器的规模将比地球还要大,而且这一实验在目前的经济形势下不太可能获得资助。”
从理论上说,他的担心在本质上或许有效,但它们实际发生的可能性非常小。
不过,你一定会对霍金与希格斯玻色子的发现之间的关系感到疑惑。首先,由于希格斯玻色子的发现,霍金失去了100美元的赌注。接着,他在去年沉思后表示,发现希格斯玻色子后,物理学变得不那么有趣了。
然而不管怎样,鉴于他认为我们能留在地球上的时间只剩大约1000年,那么在机器人拥有自己的想法消灭人类之前,还不如好好探索每一种可能场景。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。