▲ 2020年6月19日,奥斯纳布吕克州下萨克森:Melanie Ploppa老师在教室中为小学生们上课。由于新冠隔离法规的限制,目前各学校必须采取特殊的卫生管理措施。另外,课堂中学生的数量也受到控制。
在COVID-19疫情全面爆发之后,众多在校学生开始在家中参与网课,但事实证明这样的隔空授课方式确实无法与常规课堂相媲美。人们还普遍意识到,现实中面对面交流问题、讨论思路、明确团队挑战并以小组形式达成目标的整个过程,确实可以带来更好的学习效果。没错,不然的话我们要学校干什么?
但同样的互连互用技术,能否帮助计算机在构建数据驱动型人工智能(AI)知识库与软件驱动型分析引擎时,也达成更好的“学习”效果?
机器学习中的开放性
最近,业界涌现了不少开放式AI用例。比如,今年6月,Databricks就凭借其开源机器学习成果正式加入Linux基金会。Databricks方面将项目命名为MLflow,旨在体现其以端到端流程的形式提供机器学习功能的基本定位,并希望该项目能够贯穿整个开发生命周期。
在机器学习领域,端到端是一种相当流行的表达方式,主要强调软件工具从开发生命周期的一端持续作用至另一端的全面涵盖能力。
而如果从术语的角度出发,端到端则对整个数据流程做出了如下要求:准备(包括解析数据以及重复数据删除)、实验阶段、将代码打包为“可重复运行”形式(可在操作系统中以智能模块的形式进行自由组合,并实现对应功能的即插即用)、最后进入可灵活共享与协作的AI模型。
其中最重要的是“协作”部分,即通过开放(也是实质意义上的开源)平台、渠道社区实现AI与ML数据集、处理引擎乃至其他深度学习工具的共享能力。业界目前普遍相信,这才是生产力更高、且更加自然的机器学习实现方式。
Databricks的MLflow项目已经拥有两年发展历史,期间有200多位贡献者参与其中。而将其交由Linux基金会打理将保证项目本身形成一条独立于任何特定厂商之外的发展路线,同时选择一套开放的治理模型以扩大成果采用与社群贡献。
Databricks方面解释道,他们当年创建MLflow的初衷在于解决机器学习模型开发流程中“固有的复杂性因素”。相信有从业经历的朋友都能感受到,这样一个涉及机器模型构建、训练、调优、部署与管理的流程确实相当令人头痛。
Linux基金会战略计划副总裁Michael Dolan表示:“社区参与度的稳定增长表明,数据团队必须致力于构建起未来的机器学习平台。采用率的提升也意味着,我们必须采用开源方法以实现机器学习生命周期的标准化。我们与世界上多个顶尖开源项目保持着合作关系,相关经验也让我们意识到,开放治理模型确实可以通过广泛的行业贡献与共识加快技术成果的创新与采用速度。”
推动数字智能的普及
从某种程度上看,通过开源代码开发还可以有力推动数字智能的普及。2020年6月,Abbyy发布了NeoML开源代码库,专门用于构建、训练及部署机器学习模型。这家在硅谷、俄罗斯、欧洲以及远东地区皆有业务体系的厂商向来专业文档捕捉与管理业务,但在最近的经营范围扩展之后,他们开始为企业客户提供数字智能技术方案。
NeoML的源代码已经可以通过GitHub轻松获取,其同时支持深度学习与传统机器学习算法。作为一套跨平台框架,它能够针对云环境、台式机以及移动设备之上运行的各类应用程序实现智能优化。
之前提到的Databricks开放式智能技术主要用于大数据处理与云计算“集群”管理,而Abbyy的机器学习模型则专门针对图像处理任务进行优化,旨在为运行在任意设备上的预训练模型提供更出色的推理性能。两个项目分别针对不同的技术用例,也各自拥有不同的智能化水平,但其核心诉求都在于充分发挥并回馈开放社区中的贡献者力量。
Abbyy公司表示,随着他们将开源视为核心任务软件开发层面的主要方向,95%的IT管理者都开始重视这一波战略性趋势。Abbyy方面也将通过开源推动其机器学习框架快速发展,进而支持AI的不断完善。如今,软件开发者们可以直接使用NeoML构建、训练并部署各类模型,借此实现对象识别、分类、语义细分、验证以及预测等针对不同业务目标的模型方案。
Abbyy公司AI布道师Ivan Yamshchikov还公布了更多具体用例,银行可以使用这项技术开发出管理信贷风险与预测客户流失的模型;电信企业可以借此分析营销活动的具体效果;零售与快速消费品(FMCG)企业则可建立起包含人脸识别与数据验证功能的远程客户标记方案。
Yamshchikov指出,“通过将我们的框架共享给整个开源领域,开发者们能够借此实现推理提速、跨平台功能并充分发挥移动设备的计算潜力,而他们的反馈与贡献又将不断完善并改进我们的这套代码库。我们乐于看到AI技术的整体进步,也将努力让机器学习走进更多更具价值、影响力更强的用例。”
敞开你的“心扉”
但是,开源真是实现最佳AI智能的唯一途径吗?技术领域不能搞粗暴的民粹,封闭的专有圈子同样是机器学习技术领域重要且产出丰厚的一片疆土。只有不断扩展学习交流范围,甚至直接分享具体学习模型,才有可能真正实现AI技术的大众化进程。
以Abbyy打造的NeoML项目为例,这项技术支持开放神经网络交换(ONNX),这是一套具备可互操作性的机器学习模型全球开放生态系统。项目主旨在于改善各类工具间的兼容性,保证软件开发人员能够轻松使用正确的工具组合实现预期功能。微软、Facebook等多家合作伙伴已经加入到ONNX开源标准中来,相信未来开放式AI智能将变得愈发普遍。
这可能就是人们常说的“敞开心扉”吧。
好文章,需要你的鼓励
新加坡国立大学研究团队开发了SPIRAL框架,通过让AI与自己对弈零和游戏来提升推理能力。实验显示,仅训练AI玩简单扑克游戏就能让其数学推理能力提升8.6%,通用推理提升8.4%,且无需任何数学题目作为训练材料。研究发现游戏中的三种推理模式能成功转移到数学解题中,为AI训练提供了新思路。
同济大学团队开发的GIGA-ToF技术通过融合多帧图像的"图结构"信息,创新性地解决了3D相机噪声问题。该技术利用图像间的不变几何关系,结合深度学习和数学优化方法,在合成数据集上实现37.9%的精度提升,并在真实设备上展现出色泛化能力,为机器人、AR和自动驾驶等领域提供更可靠的3D视觉解决方案。
伊利诺伊大学研究团队通过对比实验发现,经过强化学习训练的视觉语言模型虽然表现出"顿悟时刻"现象,但这些自我纠错行为并不能实际提升推理准确率。研究揭示了AI模型存在"生成-验证差距",即生成答案的能力强于验证答案质量的能力,且模型在自我验证时无法有效利用视觉信息,为AI多模态推理发展提供了重要启示。
MIT等顶尖机构联合提出SparseLoRA技术,通过动态稀疏性实现大语言模型训练加速1.6倍,计算成本降低2.2倍。该方法使用SVD稀疏性估计器智能选择重要计算部分,在保持模型性能的同时显著提升训练效率,已在多个任务上验证有效性。