微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 整个宇宙可能是个巨大的神经网络?科学家们是这样解释的

整个宇宙可能是个巨大的神经网络?科学家们是这样解释的

2021-03-04 12:12
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2021-03-04 12:12 科技行者

核心思想可以简单总结为:整个神经网络内的每种可观察的现象,都可以通过神经网络进行建模。从这个角度来看,宇宙自身在广义上也可能是个硕大无朋的神经网络。

明尼苏达州德卢斯大学物理学教授Vitaly Vanchurin去年8月在论文预发表平台arXiv上发表了一篇题为《世界即神经网络》的文章,其中的观点可谓惊世骇俗。https://arxiv.org/pdf/2008.01540.pdf)

日前,Futurism杂志记者Victor Tangermann采访了Vanchurin,并就论文内容做出探讨。

中心思想

根据论文观点:

我们讨论了整个宇宙在其基本层面上属于神经网络的可能性。我们在其中确定两种不同类型的动态自由度:“可训练”变量(例如偏差向量或者权重矩阵)以及“隐藏”变量(例如神经元的状态向量)。

从最基本的层面出发,Vanchurin在论文中尝试对量子物理学与经典物理学之间之间的鸿沟做出一统性解释。我们知道,量子物理学在解释宇宙背景下微观系统内的动态方面相当可靠。例如,在处理单一光子时,我们可以根据量子力学理论实现可观察性、可重复性与可测量性。

但在尝试将量子物理学与经典物理学对接起来时,我们发现这些可观察的量子现象很难与经典观察结果实现统一,甚至可以说出现了明确的理论断裂。

争议

在对宇宙本质的解释理论进行层层剥离之后,我们发现其核心永远是用一种“至高真相”替代另一种“至高真相”。理论家们把从神创论到“缸中之脑”的各种观点都假定为现实,希望借此对量子力学现象做出可行的解读。

最终得到的结果有二:其一为“平行世界”,其二为“称其变量”。而Vanchurin的工作,正是尝试通过自己的“神经网络世界”理论对二者做出调和。

为此,Vanchurin得出以下结论:

在本文中,我们讨论了整个宇宙在最基本的层面上属于神经网络的可能性。这是个极为大胆的主张,其中强调的不只是人工神经网络在分析物理体系或者发现物理定律方面的可行性,而是更为直接的结论——神经网络就是我们周遭世界的实际运作方式。从这方面出发,要想证明这一观点的谬误,我们只需要找到那些无法用神经网络原理描述的物理现象。但不幸的是(或者说幸运的是),我们似乎找不到这样的现象。

Vanchurin明确提到,他并不会在“平行世界”理论中添加任何额外的解释,而这种不做加工的方法也正是论文当中最有趣的哲学意义所在。

如果Vanchurin的成果成功通过同行评审,或者至少启发人们开始考虑整个宇宙是个具备完备功能的神经网络的现实可能性,那么我们将迎来一条宝贵的线索。这条线索也许会让我们陷入更深层次的困境,但也有可能成为通往终极大一统理论的阶梯。

如果我们都是这个巨大神经网络中的节点,那么这套网络的存在目的是什么?宇宙是个巨大的封闭网络,抑或是某个更大网络中的单一层?也许我们所接触的,只是同一网络当中数万亿个宇宙中的一个。在训练神经网络时,我们会运行数百万乃至数千万次循环,直到AI完成适当“训练”。如果说这个背景性的场域真的是更庞大机器内的组成部分,那我们人类会不会只是无数训练周期中的一轮?

(声明:本文仅代表作者观点,不代表科技行者立场。)

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • 奖励设计:让AI学会智能使用工具的关键
    2025-04-23 17:39

    奖励设计:让AI学会智能使用工具的关键

    想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。

  • ToolRL:奖励设计是工具学习所需的全部
    2025-04-23 17:34

    ToolRL:奖励设计是工具学习所需的全部

    想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。

  • X-Teaming:使用自适应多智能体进行多轮越狱攻击和防御
    2025-04-23 14:08

    X-Teaming:使用自适应多智能体进行多轮越狱攻击和防御

    想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。

  • "思考操纵":用外部思考让大型推理模型更高效
    2025-04-22 16:43

    "思考操纵":用外部思考让大型推理模型更高效

    想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-