
人工智能技术的复兴,主要归功于过去几年以来以IT为代表的计算能力的显著提升。在与图形处理单元(GPU)以及云计算资源的弹性特征配合使用的情况下,在机器学习与自然语言处理实例当中,AI提出的计算资源需求对于企业而言终于不再是可望而不可及的奢求。
尽管如此,还有另一种不那么广受关注但又同样重要的AI复兴趋势,即AI技术被应用于物联网与边缘计算场景当中。根据StorCentric公司CEO Mihir Shah所言,这样的趋势代表着大数据的工作“对速度有着严格的要求,同时又必须配合良好的稳定性。”
而所有这一切,都必须通过存储底层来支撑——换言之,除了计算能力之外,存储已经成为AI在数据生态系统当中发挥重要作用的另一支柱。存储对于AI技术之所以不可或缺,是因为AI巨大的计算量需要对数据进行大规模快速访问,而这方面要求在边缘计算与备份等实际场景中又显得更加现实且突出。
当配合理想的存储容量时,AI的计算速度才能够为诸多有利于智能物联网(IIoT)的前沿边缘计算用例提供助力。
智能物联网的存储要求主要体现在边缘计算应用当中。比如,美国国防部目前正在利用人脸识别等AI技术对偏远地区进行管理,用以验证进出设施的具体人员。很明显,涉及高级机器学习、卷积神经网络以及统计认知计算等因素的人脸识别技术对存储设备提出了特殊的要求,而这,也是确保其正常运作的基础所在。Shah在提到国防部部署人脸识别方案时表示:“他们更倾向于使用直接附加存储方案,旨在提升数据流通速度。这类方案具有便携性、速度性以及易于使用等优势。”
在这个特定用例当中,人脸识别的实现在很大程度上依赖于存储对边缘计算的支持。Shah提到,“边缘位置的这些人脸识别系统就位于服务器旁边。该服务器直接连接至设备。当有人走进来时,设备会扫描他们的面部并整理出他们的生物识别指标。而服务器则会即刻进行处理,并与存储设备中的信息进行比对。”
在之前提到的示例与其它边缘AI部署方案当中,存储单元往往面临着一系列特定要求。一般来讲,缩小设备尺寸对于实现物联网而言至关重要。因此,尺寸成为了边缘位置下,附加存储设备的核心设计因素,而在这样的设计下,同时还要保证其在“瘦身”之后仍然有能力处理AI所需要的数据规模。StorCentric公司CTO Rod Harrison观察到,用于支持边缘计算用例的某些尺寸较小的存储单元能够容纳大约70 TB数据。另外,这种存储设备必须具备用户友好特性,从而满足远程环境当中非技术用户的操作需要。Shah指出,“在这样的环境中,因为没有太多IT专业人员,所以对设备的易用性及速度都提出了要求,为此,我们在设备上配备了Thunderbolt连接端口。”
此外,便携性的重要性同样在不断攀升,除了边缘存储之外,包括边缘计算本身也在强调便携性。目前最典型的案例,就是大量智能手机正在持续生成传感器数据。尽管与智能物联网中的IT资产相比,智能手机可能并没有那么大的存储需求,但它也从另一个方面强调了便携性的优势。另一个典型例子是部署在偏远地区的军用战斗车辆上的存储单元。“这是一种本地存储,操作人员可以将设备带回基地,并下载至中央服务器。”此外,在发生故障的情况下,操作者也能够轻松更换这种存储单元以实现业务连续性。Shah强调,“因为整套系统非常易于使用,所以即使没有IT工作小组,一旦某块驱动器发生故障或者出现了其它意外状况,身在现场的任何士兵都可以弹出这块损坏的驱动器并立刻插入新的驱动器。”
存储对于智能物联网的提升至关重要,它使得相关设备能够根据需要卸下数据、按需访问数据,并支持由部署在云端的AI提出的计算要求。如此一来,AI技术的可行性将不仅延伸至认知计算,现时也将延伸至物联网领域。此外,便捷而可靠的存储对于集中部署的AI方案同样必不可少,并直接为我们带来了当前各类常见的AI实现成果。“在我看来,AI与物联网技术的融合首先将在一系列大型企业当中实现;但随着时间的推移,这方面成果最终将渗透到更多中小型企业之内。”Shah表示。
好文章,需要你的鼓励
谷歌DeepMind等顶级机构联合研究揭示,当前12种主流AI安全防护系统在面对专业自适应攻击时几乎全部失效,成功率超过90%。研究团队通过强化学习、搜索算法和人类红队攻击等多种方法,系统性地突破了包括提示工程、对抗训练、输入过滤和秘密检测在内的各类防护技术,暴露了AI安全评估的根本缺陷。
西蒙弗雷泽大学和Adobe研究院联合开发的MultiCOIN技术,能够将两张静态图片转换为高质量的过渡视频。该技术支持轨迹、深度、文本和区域四种控制方式,可单独或组合使用。采用双分支架构和分阶段训练策略,在运动控制精度上比现有技术提升53%以上,为视频制作提供了前所未有的灵活性和精确度。
英国国王学院研究团队开发了潜在精炼解码(LRD)技术,解决了AI文本生成中的速度与准确性平衡难题。该方法通过两阶段设计模仿人类思考过程:先让AI在连续空间中"深思熟虑",保持多种可能性的混合状态,然后"果断行动",逐步确定答案。实验显示,LRD在编程和数学推理任务中准确性提升最高6.3个百分点,生成速度提升最高10.6倍,为AI并行文本生成开辟了新路径。
清华大学团队开发的ViSurf是一种创新的大型视觉语言模型训练方法,巧妙融合了督导式学习和强化学习的优势。该方法通过将标准答案整合到强化学习过程中,让AI既能从正确答案中学习又能保持自主推理能力。实验显示ViSurf在多个视觉任务上显著超越传统方法,特别是在处理模型知识盲区时表现突出,同时有效避免了灾难性遗忘问题,为AI训练提供了更高效稳定的新范式。