当甲骨文软硬件集成系统从推出之初的面对质疑,到一步一步以业绩证明其优势从而得到认可时,甲骨文究竟是如何让软件和硬件系统通过调优、集成,发挥1+ 1》2的性能魔力的?在本次甲骨文总部之行中,我们采访了甲骨文公司系统事业部执行副总裁John Fowler,从性能、研发、产品路线图、团队合作等方面,他详解了甲骨文软硬件产品是如何“水乳交融”的。
甲骨文公司系统事业部执行副总裁John Fowler
这一切建立的根本,是甲骨文公司各个业务线都在强调的“同类最佳”的目标,其核心就是“永远争第一”,力求每个产品都做到同类最好。在同类最佳的基础之上,甲骨文再把每一类已经是市场最好的软件和硬件集成在一起,这也就奠定了1+1》2的基础。大家还记得甲骨文那张著名的七层堆栈的图吗?从存储设备、服务器、虚拟化设备到操作系统、数据库、中间件、应用软件,甲骨文拥有业界最全的产品线,并且在每一层都有最优秀的产品。
七层堆栈图,从底层开始分别包括:存储设备、服务器、虚拟化设备到操作系统、数据库、中间件、应用软件。
在采访中John Fowler透露,其实在当年甲骨文收购SUN之前,拉里·埃里森(甲骨文创始人及CEO)已经开发出了第一代的Exadata软硬件集成系统,当时是通过与惠普的合作来开发的。拉里在与惠普合作中受到的最大启发,就是这种软硬件集成的一体化产品是真正划时代的,但是与此同时他也认识到,甲骨文只有自己完全拥有硬件工程师团队之后,才能够按照自己的想法去实施集成系统的战略。
据John Fowler介绍,在甲骨文软硬件集成系统推出的背后,是需要甲骨文软件团队和硬件团队之间进行大量合作的。一开始把两个团队工程师放在一起的时候,甚至都没有共同语言,因为平时使用的词汇都完全不一样。但是随着两个团队合作的深入,他们会产生很多好的想法,甲骨文会通过实际产品研发的模拟来证明这些想法。整个过程就是一个把大家的讨论逐步转变成可模拟的实际测验的一个过程,绝对不是工程师之间的辩论或者吵架。
这种软件和硬件部门的合作也在集成系统之外开展,内存数据库技术其实就是一个很好的案例。众所周知内存数据库技术是甲骨文提供给所有数据库12c用户的一个增强选件,可以让用户以内存的方式来读取数据库里面的数据,而不需要通过原先的硬盘来读取数据,这种方式使得用户的数据处理分析速度大幅度提高。在这个过程当中,甲骨文的硬件团队就充分考虑了未来内存数据库的功能特点,在硬件开发的过程当中支持内存数据库技术,在整个芯片的设计、处理器的设计方面充分考虑内存数据库的功能和特点,充分考虑未来软件的发展趋势。
在研发上,甲骨文斯毫不吝啬,每年用于研发的投入达到50亿美金,而对于硬件产品的研发重点,John Fowler强调大量的研发都是基于自有核心技术的产品或者是高附加值的产品。比如正在测试的微处理器芯片,就会把数据库加速的一些功能内嵌到芯片当中。从这进程来看,其实光有研发投入也不够,必须要同时拥有软件和硬件的自主知识产权才行。
对于甲骨文来说,过去的传统业务重点在于为客户提供企业内部使用的相关软件、硬件或者集成系统,而现在,甲骨文的战略之一就是慢慢通过云的方式向顾客提供相应的软硬件集成服务。
在这其中,SDN(软件定义网络)对于甲骨文的云战略来说是非常重要的一环,因为它能够帮助甲骨文灵活处理虚拟机上面的应用软件运行和整个网络能力的配置,未来甲骨文会在所有系列产品中都嵌入SDN的功能,把它当成是甲骨文平台的一个有机组成部分。另外,甲骨文还会将SDN技术与其存储产品结合在一起,实现端到端的处理。另外甲骨文也把SDN功能植入到Solaris操作系统当中,新一版的Solaris里SDN功能会得到大幅度增强。
其实对于连续两个季度获得业绩增长的甲骨文硬件业务,外界环境并不好,全球硬件市场就处在缓慢下滑的态势当中,不过John Fowler依旧预测接下来的这一季度,甲骨文的硬件业务仍然将继续保持10%以内的增长。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。