微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 连线杂志:如何造一个有自我意识的机器人?

连线杂志:如何造一个有自我意识的机器人?

2017-10-10 15:24
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2017-10-10 15:24 CNET科技行者

不过,在宇宙所有已知的事物里,最神奇的莫过于人脑。

人类大脑能够了解中子星,了解黑洞、中微子,以及地球上众多的动植物。人类大脑能够计算出数学真理,能够辨别出道德上半真半假的陈述,也能够思考出哲学上的模棱两可。它能够从我们脚下的泥土中,提取出原材料,构建城市,能建造汽车、飞机和火箭,以及有线和无线信号,并将这些迥然不同的“意识”汇聚成创造力、知识、甚至是残酷行为的“母巢”。

如果说我们的大脑是宇宙中最酷的产物,绝不会引起争论,毕竟如果没有大脑,也就不可能有这些争论。它们是所有争论和辩论的基础。

thinking machines)”可能发生在人工智能里。

而这是一件好事。

我们的自我意识程度是将人类与地球上其他生命形态区分的关键所在。大多数动物是有意识的,甚至有许多动物是有自我意识的,但是人类拥有的是高度的自我意识。人类的大脑中有一个连接到我们意识的放大器,并且转到了最大值。

在人工智能领域,充斥着各种对人类智能的不同特性的复制或模仿工作。其中他们必做的一件事是,复制人类意识的打开方式。也许从人工智能研究中,我们收获的最佳产物不是对计算机的理解,而是对人类自己的理解。

因此,我们不妨大胆设想一下,具备自我意识的机器人的打开方式,我们暂且把它称作一个蓝图。

“蓝图”三要素

一个有自我意识的机器人听起来很简单,实则很复杂,我们需要:

——然而这些都不是问题,因为这些我们都已构建好了。

IBM Watson、讯飞听见)。

第三项也是最后一个组件则有一点不同寻常,这是一个独立于机器的组件,用来观察机器身体的其余部分并发出行动指令。

3)一种算法,用以推断出这些通信的原因和动机。

机器思维与人脑思维仍相差甚远

——我们的大脑一致都被认为几乎与心理理论机器一样。那么心理理论到底是什么?

说白了,心理理论是一个人的大脑试图了解另一个人的大脑在想什么的一种理论,是个体对他人心理状态及其与他人行为关系的推理或认知。例如,小红想知道小明在思考什么,于是小红就会对小明当前的思想状态创建理论进行推理,这样做是为了猜测出小明下一步要做什么。

在这个例子中,我们暂且把“小红猜测小明在想什么”称之为一级心理理论,它也将变得越来越复杂。小红也可能会很好奇小明是怎样看待她的,这就属于二级心理理论了,它是人类大多数的神经症和想法固执的根源。“小明认为我聪明吗?”“小明喜欢我吗?”“小明会希望我受伤吗?”“小明是因为我做了什么才变得心情好或心情坏吗?”这类问题我们听起来或许会觉得很熟悉,毕竟我们的生活中充满了这样的想法。而这仅仅是一个开始。

——也是它们的主要功能。有人推测,心理理论而非工具的使用,是一开始造成我们的人脑相对大小的原因所在。

F=ma,速度的平方。

不光是人类意识,大量研究表明,许多动物呈现出了不同程度的自我意识。譬如,动物可以辨别出镜子里自己的脸。动物和其他动物会就如何解决一个难题进行交流,然后获得双赢。甚至有大量证据显示,章鱼也拥有自我意识。但是,正如猎豹是陆地上跑得最快的动物一样,人类是心理理论界的皇后与国王。

我曾经看到过我的狗在观察我并猜测我接下来要做什么。它或许在想,我是要把棍子扔掉呢还是不扔?我是要把最后一口食物吃掉呢还是分享给它?我甚至还见过狗狗在设法解决二级心理理论的问题。当它与一个小伙伴玩耍时,它就会来估计我的意图是什么。我突然打开包了吗?或者这是另一个游戏?我的狗应该站哪一边?在动物世界里,狗是一个很好的心理理论例子,因为狗经过多年的进化,与人类接触的比较多,渐渐学会了一些人类行为线索。

AI,就要继续密切关注这个模型。他们中的一部分机器已经开始试图猜测人类的想法,以及人类下一步会做什么了。目前已经有人在开发一种汽车:能够通过识别用户脸部表情来确定用户的注意力在哪里、是否昏昏欲睡,这属于一级心理理论,目前已被应用于上路的自动化驾驶汽车。

下文有一个非常简单的原因解释了人类意识的神秘,尽管我们如今可以很轻松地在实验室里制造出“有意识”的机器,但并非有“自我意识”或“类似于人类意识”。

人脑模块之间并非协同工作,这正是机器的误区

RAM(短期记忆)、硬盘(长期记忆)、冷却风扇(自主神经功能)、电源(消化)等等分离开来。

电脑是一个有着一体化标准设计的精密设备,各个部分的几乎都是出于同样的目的在同一时间设计,而且他们的设计目的在于与其他电脑能够协同工作。但这些都与人类思维毫不类似,甚至相差甚远。

人类思维更像是华盛顿特区或大型公司,庞大而复杂。大脑的某些功能在数亿年前便已建立,例如它可以为单个细胞提供能量,也可以通过细胞膜提供钠和钾。而几百万年前建成的神经元,可以确保血液的注入和氧气的吸入。大脑里的每个模块就像是一个拥挤的城市里一个个单独的建筑一样。其中的一些模块甚至与其他模块完全没有交流。血液循环系统和呼吸系统可自由发展,但其他系统很容易发生争吵、抬杠、异议、对其他系统造成破坏等,致使身体出问题。下面是一个例子:

3000英里的大海。我女友不常晕船,但在南太平洋一个称为辐合区的区域,汹涌的海面使我们的帆船进入了奇怪且不平稳的节奏,她感到非常难受,而这种可怕的感觉持续了几天。

晕船就是我们的大脑模块之间不与彼此交流(或自己做自己的事)的一个例子。当我们周围环境运动的视觉线索与我们的内耳(感知平衡的所在)发出的信号不匹配时,大脑就会认为我们被人投了毒。而毒素会扰乱我们的大脑处理,导致其无能、产生异常数据,我们又不是水手,所以当我们看到的与运动不匹配时,我们的身体会认为我们已经失去了用两条腿保持平衡的能力,结果就是,我们清空了肠胃(去除了毒素),并躺下来,完全不想动弹(这阻止了我们因摇晃而从高处摔倒,从而导致死亡的可能性发生)。

我们还要模拟一个该模块最奇特的功能,它用一种非常特殊的方式结合了心理理论。而正是这种结合引起了人类意识的产生,在我们为有自我意识的机器打造的蓝图中,它是最重要的一项功能。

机器还犯了一个最重要的错误

有了心理理论的概念,以及大脑模块之间是不可靠且分离的这些知识,我们已经准备好去理解人类的意识,探索它是如何出现,以及它为什么出现了。

就这一点指出了一个简单的事实:人类意识并不是任何一种实物,它的出现没什么目的,也不会因进化而产生规模效益,但是在人脑的某两个独立模块都非常有用时,它出现了,因此自我意识出现了。

其中的一个模块是心理理论。而前文已经提到,心理理论将比任何其他高级的神经活动消耗更多大脑处理能力。而它又极其重要。因此这个模块存在的问题在于,它不能用它的力量(心理力量)做选择,而是将心理理论能力转为身体指令。譬如,人觉得太冷就会起身调高空调。

最后告诉自己为什么会这样做(过程中,非常有用的心理理论工具仍将继续运行,并整理自己的行动)。

更为明显的例子来自于各种神经系统障碍患者。测试对象要么是在视觉处理上有问题,要么是两个大脑半球之间是断绝的,致使其每只眼睛可以显示出不同的图片。例如,他们的一只眼睛会看到一个耙子,而另一只眼睛则会看到一堆雪。而他能够看到耙子的那只眼睛实际上是失明的,但由于模块处理的图像仍然是活跃的,所以当测试者被问及他所需要处理的图像(看到雪的那只眼)看到了什么时,他会回答看到了“耙子”。是不是很有趣?然而真正有趣的是,尽管我们已经将整个过程解释给了他们,这个人依然认为自己的答案是对的。

执意建立一个有自我意识的机器,可能在浪费时间,也因此让我认为所谓的“人工智能威胁论”可能性极小。我能想到构建这样机器的唯一原因,就是要雇用更多的精神病学家。

“蓝图”回顾

·图灵的图灵测试粉丝找到我,她认为建立自我意识的机器将产生一种超级智慧的头脑,能够给出治愈癌症以及冷核聚变的方法,那么我们要如何实际组装出这个具有自我意识的机器呢?

应用我们所知道的头脑理论和不相连的模块,我们首先要建立的是一个意识方案(这些都很简单,并且肯定已经存在了)。使用现成的技术,理想中第一台机器应该看起来像一辆自动驾驶车辆一样,而且工作方式也类似。多年来,实现真正自主驾驶车辆的最大限制是意识装置:传感器让车辆知道周围将发生什么情况,为机器装上了眼睛和耳朵。

——我们的团队聚焦于教会一个城市网格中的传感器阵列观察其他车辆,并猜测它们想做什么:

-那辆蓝色的日产车想要去杂货店,因为“它饿了”。

-那辆红色的货车正打算进入一个加油站,因为“它需要能量”。

-那辆汽车“喝醉了”,它似乎视力不太好。

-而那一辆汽车反应速度比较慢,它充满了肾上腺素。

传感器们将会通过扫描眼睛(这就是人类和动物的方式)来观察意识对象。它们将通过我们的面部表情和身体姿势(目前的系统已经能够做到)来学习了解我们的心情。这个库和传感器阵列将形成我们的头脑理论模块。其目的只是讲述其他对象的行为。当我们让它转向自己的时候,魔法就会发生了。

我们的库只是按照一阶概念开始的,但是建立在二阶、三阶的想法之上。譬如下列思考方式:

-它稍微转动了一下方向,那么是的。

-它给它让出的空间比给路上其他的汽车让出的空间更大,那么它确实是这么认为的。

Corvette让出了同样大小的空间,这辆车上的里程表显示它离开经销商只开出了两英里,哦,那么答案就是肯定的。

GPS单元。不要让它知道车主手机的内容,丈夫发给妻子短信,要她在回家工作的路上接上孩子。为了模仿人类的行为,无知是关键。这样就能确保最初的猜测,或者我们可能会称之为“偏见”。

I-95那次疯狂的逃跑,不会出现燃料耗尽的情况。

但它不知道的是,这辆汽车的乘客每天都在加油站吃一个微波炉加热过的奶酪“小胖子”,还有一大堆炸薯条和半升苏打水。后来,当这辆汽车经常去医院的时候,它会认为这是一个关于汽车检查的指令,而不会想到是车主充血性心力衰竭的发作。而所有机器的错误、困惑以及它对自己猜测的确定,又将给“人工智能威胁论”带来热议。

意识也有语言

人工智能算法可能先于人工智能诞生,算法反映了一种人类意识的秘方成分,这种成分就是语言。语言比任何其他特质都更能够让我们觉得自己的大脑是一个单一的模块,是一个单一的设备。

Henrietta Lacks了解更多这方面的情况)。整个器官都可以住在别人的身体里。而且我们体内还有更多的细胞并不是我们的,数量比那些组成我们身体的细胞还要多,因为有更多的微生物生活在我们的消化道里、皮肤上以及其他地方,数量比实际上构成我们身体的细胞总数还要多。这不仅仅是一种搭便车的行为。它们会影响我们的心情、健康、思想和我们的行为。它们是我们认为的“自我”的重要方面。

了解所有这些生物性以及人脑理性化“同一性”的方式,对于识别人工智能至关重要。

那么语言到底有什么了不起?

语言是意识的关键因素。这是在人工智能领域开展工作的一个非常重要的概念。然而,我们的大脑当中有许多模块,会为了获取我们的注意力和我们的语言处理中心(它紧紧地围绕着我们的注意力,几乎成为一体,或者可以说是一样的)而争斗不休。作为这方面的一个测试,你可以尝试在聆听有声读物或播客的同时与其他人交谈,对于并发通信流来说,最为接近的场景是实时的同传翻译。

大堆大堆的数据只能以单一流的方式被提取,因为受到注意力系统和语言系统的限制,这也正是显示器为台式机提供的工作方式,所有的并行处理在最后一刻都是串行的。

——当时,我大脑一部分模块在尖叫着“危险”,但单一的输出流则按部就班地进行,输出了一片空白。

——这就是为什么大脑语言中心受到伤害会影响正常生活和记忆模块受损是一样的道理。我应该在这里说明一下,语言不只是口语。

我们的自动驾驶人工智能车辆将不会拥有完全的自我意识,除非我们编程让它告诉我们和它自己关于它的行为的故事,核心就在于,机器将会为它正在做的事情形成故事,但我们不应该让它将这些故事与他人联系起来。

serial output stream)。

一个更好的想法

为了让我们的机器获得类似人类的自我意识,我们必须让它不顾上文所提到的“那台锁在房间的笔记本”。这可能偶尔需要耗尽能量,通过编程为数以百计的输入模块分配权重,然后人为限制做出最终决定和头脑理论故事所花费的时间和处理能力,这样做比较容易。我们自己的大脑的构建方式就是通过拥有千兆位分辨率的传感器,而每个输入模块都有兆次级吞吐量,但是输出却受到限制。然而我们不会将人工智能视为人类,因为我们永远也不会构建这样的限制。

Watson对这个问题给出的答案却是一个加拿大的城市。(这里值得注意的是,对我们人类来说,机器人在失败的时候显得最为人性化。)

汽车制造商正忙着制造我们永远不会称之为具有自我意识的车辆,那或许是因为他们把它打造得太好了。而我们的蓝图是使机器在对其动机一无所知的同时提供关于这些动机的运行对话,一个更好的主意是建立一个知道其他汽车在做什么的机器,没有猜测,而且也完全没有运行的对话。

GPS单元、智能手机的文本、家用电脑的电子邮件,而且还可以访问其他的车辆和所有城市的传感器数据。日产车告诉福特车,它将要去商场。每辆车都知道其他的每辆车都在做什么。因此没有碰撞。在高速公路上,具有相似目的地的汽车聚集在一起,磁性保险杠连接起来,共享一个滑流,并集体性地将每辆车的能量使用量减半。机器运行整齐划一。它们显示出车辆的所有能力特征。它们知道它们需要知道的一切,而且有了新的数据,它们就会立即改变主意。没有偏见。

我们很幸运,这是人工智能研究人员今天建造的方向,它不会有那些我们在科幻故事中看到的怪癖,它将提供的是一个精心设计的系统,几乎总是在做它的设计者让它做的事情。事故将是非常罕见的,造成事故的原因能够被理解,这种经验将在机器当中广泛分享,而且会不断改进。

alphago在第三场比赛中的有一步棋是如此不寻常,令围棋专家们大为震惊,它的下法被描述为“富有创意”和“巧妙的”。谷歌有另一种算法,可以画出它所认为的猫的样子,不是从其他地方复制的猫图像,而是在学习了数百万只真实的猫的样子后,画出了一只猫的“感觉”。

没有什么是人类能够与人工智能竞争的了,而是协同工作。

未来

几乎没有一个人工智能会变得具有自我意识,这不应该是自动化机器的世界中存在的东西,因为这会使它们的工作变得更糟。

未来也有可能是我们自己内部算法的扩展和改进,这个世界对于绝大多数人类来说每一天都在变得更加安全。或者说道德水准正在提升。我们的同情心正在扩大。我们每个人都是我们自己内部算法的程序员,完善自己完全取决于我们自身。首先要了解我们的构建是如此地不完美,学会不要相信我们告诉自己的那些关于我们自己行为的故事,并让我们自己在这个过程中致力于消除错误并安装更新的功能。

因此,我们也许永远不会建造一个像人类一样的人工智能。但是,我们人类意识却可以得到更好的完善。

<来源:wired;编译整理:科技行者>

分享至
0赞

好文章,需要你的鼓励

推荐文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-