当这家美国最大、全球第六大的银行在谈论区块链技术的潜力时,有很多值得学习的东西。在最新发布的一份74页的报告中,摩根大通介绍了加密货币、数字化货币和区块链技术面临的机遇和挑战。这是自去年以来我们在区块链领域看到的非常重磅的内容。这份报告涵盖了很多领域:比特币、中国的DC/EP和无现金支付、区块链工作、稳定币和Facebook的Libra。
在尝试采用区块链技术的企业中,摩根大通可能是最杰出的金融服务企业,因此,它们应该获得更多的期待。在过去的四年中,他们已经克隆了以太坊协议,将其打造成一个名为Quorum的企业产品,并且启动了该领域一些最重要的行动,例如JPM Coin和银行间信息网络(IIN),后者目前已经有高达400家银行参与其中。那么,下面是我们从摩根大通的报告中学到的六个关键内容。
支付和贸易金融是最重要的用例
摩根大通认为区块链和DLT技术最大的价值在于支付和贸易融资用例之中。一些最大的中央银行正在尝试使用数字货币进行跨境和批发支付,这无疑证明了这种说法。
无现金经济需要稳定币以实现支付市场现代化
稳定币——这份报告中有86次提到了这个词——是一种新型支付生态系统的基础工具,这种生态系统仅限于移动设备,并且可以超越现金。摩根大通在无现金支付上花费了大量的时间,报告中列举的最突出的例子就是中国大规模进行的区块链工作。
JPM Coin仍在发展之中
2019年2月发布的稳定币代表了美元,它的诞生是为了促进摩根大通和合作伙伴银行之间在私有、特许网络Quorum之上的支付,该计划目前仍在讨论之中。类似于富国银行数字现金计划,JPM Coin作为支付工具只针对内部使用,不涉及二级市场和交易。这是针对机构客户和跨境资金流动的工具,可以全年365天提供7*24小时的交易,并且极大地优化当今每一家大型银行都面临的内部流动性效率低下的问题。
商品期货交易委员会(CFTC)的一个小组的数字市场全球负责人Eddie Wen对JPM Coin给出了另一项验证,他就该代币的用途和目的作了很好的介绍。
区块链在银行将主要用于后台操作:清算、结算和抵押品管理
这个说法不会令任何人感到惊讶,但是在银行业,区块链最有前景的用例是后台操作。这意味着诸如证券借出、抵押品管理、为报告和监管提供不变的审计追踪,并为清算和对账提供单一真相来源之类的用途。
Facebook Libra打开了潘多拉的盒子,但可能会失败
这份报告认为,Libra获得了一个重要的舞台,但是Facebook的稳定币的设计呈现出“内在的不稳定性。”摩根大通详细介绍了批发支付工具的可能性,但是提到Facebook在发布稳定币项目以来一直在经历审查。这段内容绝对值得一读,他们将其描述为“非经营性批发无担保资金,在银行流动性监管中受到了相对惩罚性的待遇。”
加密货币很有趣,但目前仍不现实
摩根大通(JPMorgan)的研究小组将比特币、以太坊和瑞波币等加密货币当作是可能对冲股票和证券的工具,他们认为这个观察非常复杂,但是很公证。结论是,尽管加密货币很有趣,但是因为它们不是法定货币,即使加密货币承担了1%的风险也是极度冒险而不切实际的。加密货币领域最初的口号是它们是不相关资产,可以和黄金、日元一起作为避险资产。不幸的是,摩根大通并不认同这样的看法,他们警告称,这些市场动荡不定,而且通常非常薄弱,很容易被某个玩家操纵。
总体而言,对于任何区块链和加密货币领域的专业人士来说,摩根大通的这份报告是必读的不二之选,它清晰地呈现并高度精炼了去年出现的各种情况,并进行了准确的总结。这间美国最大的银行带来的这一切都不容忽视。而且更重要的是,这也是对区块链技术的证明——严肃的金融服务企业已经在密切关注了。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。