著名物理学家斯蒂芬·霍金(Stephen Hawking)昨晚出席了美国HBO频道的“Last Week Tonight”节目,并与主持人约翰·奥利弗(John Oliver)展开了深刻而有意义的对话(至少霍金的谈话是深刻而有意义的),并认为机器人可能“比我们聪明”。
当奥利弗问及霍金他最希望人们能够理解什么事情时,霍金回答说:“虚时间(imaginary time)。”
他说道:“虚时间就像是宇宙空间中的另一个方向,这是我的作品中还未被科幻小说家使用过的一则假说。”
说实话,尽管所有的科幻小说只是在科学家的作品中加入了血和性等元素,那为什么没有科幻小说作家在虚时间的基础上创作故事呢?霍金说道:“他们不理解虚时间。”
当然,笔者也不能假装理解什么是虚时间。无论如何,它是一种与时间有关的东西,与每天侵蚀我们的时间朝着不同的方向运行。
不过,奥利弗最希望了解的是人工智能。与众多人工制成品一样,人工智能对人类而言也可能是有害,甚至是致命的。
霍金对此非常肯定:“人工智能在并不遥远的未来可能会成为一个真正的危险。”
但肯定不是在谷歌那群好男孩的掌握之下吗?霍金认为,这或许将与谷歌那些好男孩的想法无关。因为一般的机器人可以“进行设计改进它自己,使得它们自己比我们所有人都更聪明。”
奥利弗继续问道:“那为什么我不应该为能够与机器人战斗而感到兴奋呢?”
霍金给出的回答很干脆:“你会输掉。”
奥利弗开始担心之前根本不是霍金在与他谈话,而有可能是一个充满智慧的计算机在同他问答。霍金(或假装霍金的机器人)回答说:“你是个白痴”。
但这难道不是人类的本质吗?尽管我们认为我们什么都知道,至少当我们对自己诚实时,我们最清楚的一件事就是——我们都是傻瓜。我们所不知道的要远远超过我们所做到的。
事实上,考虑到世界上可能有很多平行宇宙,奥利弗怀疑是不是在某个平行宇宙里,他可能会比霍金聪明。
“是的,”霍金回答道,“而且还有一个宇宙,在那里你很有趣。”
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。