来源:《区块链杂谈》第三期
作者:何宝宏 《区块链杂谈》名誉主编、中国信息通信研究院云计算与大数据研究所所长
在很多场合中,我都发表过一个观点:最初高喊去中心化的,后来大多成了新的中心。当年互联网刚兴起的时候如此,今天的区块链亦是如此。
区块链从技术上是分布式的,但商业的力量让区块链的世界正集聚出新的中心。
在物理世界中,核心竞争力是智慧、力量和财富;在IT世界里,核心竞争力是代码、算力和数据。代码是智慧的结晶,算力是力量的源泉,而数据已经成为了资产。
在“分布式”的区块链世界里,已经初步形成了三大中心,分别是代码中心、算力中心和财富中心。
原本,区块链的代码来自“分布式”的社区,但对社区具有决定性影响的,并不是广大“社员”,而是核心的几个人甚至某个创立者。
对比特币社区影响最大的,最初是创始者中本聪,现在仍然是Core小组中的5名成员。至于以太坊社区,基本由其创立者Vitalik Buterin说了算。而Dan Larimer(绰号BM),无可厚非更是EOS社会的领袖(中心)。
据2018年3月一组来自伦敦大学的数据显示,Bitcoin Core软件中7%的文件是由同一名开发人员编写的,以太坊Ethereum中大约20%的文件是由同一编码人员编写的。
Code is law,在一起的一群理想主义者形成了社区,形成了代码中心。
除了代码,支撑挖矿的算力,是另外一个中心。
PoW和PoS是目前应用最为广泛的两种共识机制,分别基于力量和财富的大小来分配记账权。
比特币和以太坊选择了PoW,这是一种猜数字游戏,谁的算力越强,谁获得记账权的概率就越高。
比特币在早期用CPU挖矿就可以了,因为竞争激烈后来升级到用GPU和FPGA专用矿机了,而现在只有用ASIC的矿机才可能赚到钱。早期是个人用CPU挖比特币,后来发展到用一组专用的矿机组成矿场挖比特币,而现在已经发展到需要矿池了。
现在,只有用专业的矿机加入专业的机构,才可能在挖矿中获益。这些矿工依靠庞大的算力,形成了一个新的利益中心。
如果说代码中心的程序员还有讲情怀的理想主义者,那么算力中心的矿工则是完全受利益驱使的。商业的力量,让算力有了中心。
起初,区块链世界里是算法中心和算力中心的此消彼长,在相互的争夺中,资本的力量正在逐步释放出更大的能量,财富中心已经显现。
财富中心的出现,还是提到区块链技术的一大创新,也就是将激励机制内置化。
虚拟世界原始财富(Token)的创造,M0的产生依靠的是记账时来自系统的奖励,无论是PoW还是PoS都一样。如果说PoW是按劳分配M0,谁算力大谁说了算,那么PoS就是按资分配,谁资本多谁说了算。PoW的基础是算力,全世界的矿工联合起来就是算力中心;PoS的基础是代币,全世界代币持有者联合起来就是财富中心。而PoW的算力,又是可以通过资本购买的。
PoW和PoS只是创造了所谓的数字资产,接下来还要有数字资产交易故事才能更精彩,于是数字资产交易所兴起了。
谁控制了交易所,谁就控制了新宇宙的财富中心。首批数字资产大佬已经出现,数字资产的华尔街正在形成。
区块链硬分叉,是代码中心与算力中心冲突的产物。PoW与PoS优劣的争论,是算力中心的矿工与财富中心的持币者的口水战。交易所的恩怨是非,是交换财富的中心带来的。
短期看,矛盾主要围绕算力中心展开。长期看,矛盾主要会在代码中心和财富中心之间展开,以后是技术与资本的博弈,算力中心只能逐渐沦为路人。
集中式技术,多是为现有格局服务的。分布式技术,多是来颠覆现有格局的。反之亦然,大多数的颠覆性技术是分布式的,但成功后都会走向集中。
行业的游戏规则,只能由中心制定。先有中心,后有规则,区块链的江湖从此平静。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。