美国当地时间3月29日下午,我们迎来此次甲骨文总部之行的第一个采访,这其实也是最重头的采访,采访对象,是甲骨文公司总裁马克·赫德。在40分钟的采访时间里,马克·赫德回答了包括CNET在内的9个提问。在两年前的甲骨文总部之行、在一年半前甲骨文全球大会(OOW)、在不到一年前上海甲骨文全球大会等多个场合,提及包括IBM、SAP在内的竞争友商,马克·赫德都流露出过“时代车流滚滚向前,且不与他们相提并论”的意思,而今天采访中提及竞争对手,他干脆直言:“我不喜欢大家把甲骨文与Older(老派)的那些公司来比较,新兴公司才是我们的竞争对手。”
甲骨文公司总裁马克·赫德
与IBM不是对手是伙伴
在马克·赫德眼中,IBM已经不是对手,说是合作伙伴更恰当。在记者看来,这一方面基于甲骨文与IBM这样的传统IT企业在共建企业生态方面本来就有很多合作,这是一个“众人拾柴”火焰高的市场;另一方面,言下之意,如果把企业发展看做一场竞速跑,甲骨文、IBM这些传统IT企业都是在进行负重跑,技术、产品、品牌、市场、员工都是成绩也都要背在身上,而身边的对手,应该是那些没有包袱、一身轻松的新兴公司,比如移动互联、社交甚至大数据、云计算的“新贵”们,老是盯着自己的老对手不行,得跑过新对手才行。
对于甲骨文眼中的新对手,马克·赫德特别提到或许是未来改变云计算规则的企业,比如Salesforce.com、亚马逊,但随后他又话锋一转:“这些企业从竞争力来讲有缺陷,有的很小,有的在中国根本没有业务,只是在某些领域有很强的创新能力。”除云计算领域之外,他也提到:“硅谷有些小型企业也可能会改变未来的游戏规则,这些也是我们的新对手。”
以甲骨文现在充足的现金流(在过去12个月中创造150亿美元现金流),不知道对于这些硅谷小型创新型公司,它是否祭出收购的“杀手锏”?最近一段时间甲骨文在收购策略上一直很“克制”这表现在收购企业数量和金额两方面,这也让我们猜测是否接下来它会大举收购一些新兴公司。
企业简化IT:你来使用我来买单
面对对手,马克·赫德强调“了解它们很重要,但了解不是只为超越,还为激励自己。”
对于激励自己的武器,从马克·赫德的话语中,记者感觉还是强调甲骨文技术的深度和广度,还有就是研发投入和创新性力,这些也足以说明这家公司的“工程师文化”,技术、研发永远是第一位的。
在研发方面,在去年研发投入50亿美金的情况下,今年的研发投入依旧是50亿美金。50亿美金是什么概念呢,在最新整个季度,甲骨文的收入是93亿美元、利润26亿美元。
在研发上,对于云计算和集成系统这两大营收增长引擎,想必应该是投入重点。最近一个季度,甲骨文云软件订购收入增长25%,其中云应用软件增长60%,季度收入已接近3亿美元。硬件产品收入增长8%,这也是甲骨文收购Sun以来首次实现增长,而集成系统收入则增长30%。
从研发投入目标上来看,马克·赫德特别提到被甲骨文反复提及的“简化IT”。“在过去传统的IT商业模式中,客户要自己去制定研发预算,未来这个工作由甲骨文来完成,技术沿革、科技创新都是甲骨文要考虑的事情,用户使用IT会更加简单,只要考虑IT如何支撑企业业务创新。”
甚至提到“棱镜门”事件,马克·赫德的回答也透着甲骨文“工程师文化”的思维,他大谈安全,甚至直言历史上还没有人攻破过甲骨文数据库的防火墙。对于“棱镜门”事件中的国产化问题,丝毫不涉及。
其实甲骨文“工程师文化”,也在其公有云落地中国的策略中有所体现。在微软、SAP、IBM、亚马逊这些新老同行的公有云纷纷曲线落地中国的形势下,甲骨文的“较劲”体现出来了,拿马克·赫德的话说,“公有云落地不是投资基础设施就够了,要考虑技术储备和人员都到位了吗?”看来在这一进程上,甲骨文还在等时机。
中国市场坚持四大战略
既然是中国媒体赴总部的活动,甲骨文中国策略不可不谈。马克·赫德谈了强调了四大策略:一是同类最佳,也就是各个业务线产品在市场份额上都要做到排名第一;二是集成系统,他认为在中国,几年前还要解释概念,现在已经有越来越多的客户认同这个产品;三是云计算,他强调在业界,甲骨文是唯一能同时提供SaaS、PaaS、IaaS,涵盖整个企业级服务的厂商,甲骨文在中国云计算市场的投资也会越来越大;四是行业为导向,其中包括强化在零售、银行、电信等行业甲骨文既有的优势,而且在服务大型企业的同时,也重点服务中型企业。
采访最后,马克·赫德希望中国媒体把甲骨文的声音传递给中国客户,这种声音并不在于甲骨文的名气或者知名度,而是甲骨文的技术理念,其中包括集成系统、云计算、数据压缩技术等等。“记住,我们是IT自主知识产权技术含量非常高的企业,做的不是通用产品。”
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。