CNET科技资讯网 9月5日 北京消息(文/齐丰润): 如果说要挑选出历史上最有知名度的人工智能机器人的话,IBM的深蓝绝对会位列其中。而随着时间来到当下,IBM的Watson接力扛起了这杆大旗,成为了目前最受人瞩目的人工智能之一。
而随着认知计算技术的逐渐成熟,IBM也希望能够将Watson应用到更多的领域应用之中。下一步IBM的主攻方向会指向哪里?时下最受关注的安全领域成为了IBM的放矢之的。
认知系统是IBM推出的使用数据挖掘、机器学习、自然语言处理和人机交互来模仿人脑的工作方式的自学习系统。而认知安全就是使用认知系统来分析安全趋势,让安全分析师可以借助认知系统来帮助他们增强甚至自动化对威胁的理解,使分析师对最新的攻击更具判断力,以便腾出时间着重处理其他紧迫问题。
从数据来看,在安全领域成为焦点的当下,与巨大需求相悖的是巨大的人才缺口。据IBM介绍,目前,市场上关于安全这一类的实践工作需要的人数达到20万人,但是在2020年这个数字将达到150万人。
IBM安全事业部威胁防护与认知安全首席技术官Barny Sanchez表示:“IBM现在大量的时间都用于研究我们未来安全的发展方向,今年IBM宣布我们的业务重点已经转向了认知商业和这个领域。现在行业中面临的问题是缺乏相关技能,也缺乏相关人手,我们引入认知安全能够弥合现在市场上对于相关人才需求的缺口。”
IBM安全事业部威胁防护与认知安全首席技术官Barny Sanchez
另一方面,目前的安全从业人员对于一些信息的更新,并不能立即掌握。但是通过Watson这样的认知系统,每个月相关文档的学习能力将达到15000篇。Barny Sanchez表示,这对企业来说,能够让他们很快的获取洞察,这能够帮助他们的投资在更短的时间里获得更多地收益。
“认知安全是通过Watson不断地学习分析,在不同的安全问题下,经过判断,向安全人员给出自己的建议和解决方案,指导安全人员如何应对安全事件,而最终的操作仍然需要安全人员进行。”Barny Sanchez说道,“Watson更多的是来辅助人类进行决策,也就是最后还是相关的人员来权衡Watson给的这些评测的结果来做出决定。”
不过,虽然只是在决策方面对安全人员进行辅助,但是认知安全依然可以帮助安全人员大幅提升工作效率,他们所耗的时间、花费的精力将从原来的几天减少到几分钟。
人工智能的应用在当下已有许多实际的案例,但对于Watson的表现,IBM还是十分有信心的。“在行业中机器学习的能力是非常多的,IBM Watson所提供的除了机器学习之外还有自然语言的处理等更多的能力。” Barny Sanchez表示,“Watson有它的特点,我们要不断地对其进行培训,让系统去学习,而系统的培训人员是很多方面的主题专家。现在市场上其他的机器学习,都只是一些处理能力,并没有把设备培训成一个专家系统。”
让人类去对人工智能进行培训对于认知安全来说是非常重要的一个环节,而IBM对此也十分重视。据介绍,现在IBM公司内部已经有上百位相关的专家在培养Watson对安全方面的理解能力,除此之外IBM还和全球优秀大学中的8所大学建立起伙伴关系,让这些大学里学习信息安全、网络安全的学者和学生一起来培训Watson。
对于认知安全未来的发展趋势,Barny Sanchez觉得主要有三个方向:首先,要让Watson能够分析预测出即将出现的重大威胁,协助从业者提前做好预防;第二,让Watson帮助企业决定它的风险框架是否能够达到合规标准;最后,要培养Watson了解特定的行业和特定的客户,以达到针对不同行业、不同国家的客户制定出不同需求的方案。
现在人们普遍认为,当技术发展到某阶段时,人类的某些工作是极有可能会被人工智能所取代的。IBM介绍说, 人工智能是不能取代人类工作的,而是并帮助人类更好的做决策,是人类工作有益的补充。
好文章,需要你的鼓励
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。
浙江大学研究团队通过OmniEAR基准测试揭示了当前AI模型在物理世界推理方面的严重缺陷。测试显示,即使最先进的AI在明确指令下能达到85-96%成功率,但面对需要从物理约束推断行动的任务时,成功率骤降至56-85%。研究发现信息过载反而降低AI协作能力,监督学习虽能改善单体任务但对多智能体协作效果甚微,表明当前架构存在根本局限性。
纽约大学和Aimpoint Digital Labs的研究团队首次揭示了Transformer模型训练中"大规模激活"的完整发展轨迹。这些影响力比普通激活大千倍的"超级激活"遵循可预测的数学规律,研究者开发出五参数公式能以98.4%准确率预测其变化。更重要的是,通过调整模型架构参数如注意力密度、宽深比等,可以在训练前就预测和控制这些关键激活的行为,为设计更高效、量化友好的AI模型提供了全新工具。