微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 埃森哲推出AI测试服务,深度学习算法的“黑匣子”问题或将不再

埃森哲推出AI测试服务,深度学习算法的“黑匣子”问题或将不再

2018-02-28 09:34
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2018-02-28 09:34 科技行者

现如今,AI的智能、自主及高效程度又来到了一个发展高潮,成为人类完成日常工作、改善生活、提升幸福感的得力助手。但同时,由于是人类赋予了AI系统自主决策的能力,因此,许多人开始提出,人类需要对AI“负责”。

如何负责?其中包括三大核心,即问责制、责任制和透明度。这三点构成了AI的A.R.T原则。

  • 责任制指的是人们在研发、生产、销售和使用AI系统的过程中所承担的工作,也包括AI系统为人类制定决策、识别错误等过程中承担意外结果的能力。
  • 问责制,即解释个人行为并对其负责的能力。比如,无人驾驶汽车碰撞行人的责任应由谁承担?是传感器、制动器等硬件的设计者?是自主驾驶软件的设计师?是批准无人驾驶汽车上路的权力机关?还是个性化设置汽车决策制定系统的车主?显然,汽车是产品,其自身无法承担责任,但一切利益攸关方都难逃其咎。因此,基于问责原则,理想的模型和算法应该赋予AI系统以解释其自主制定决策依据的能力。
  • 透明度,即诠释、检查和展示AI系统诸多运行机制的义务,涉及制定决策、适应环境、使用和管理已生成数据等方面。如今AI算法基本都是“黑匣子”。因此,我们需研发检验AI算法及其结果的方法。此外,还需采用透明的数据管理机制,确保合理透明地收集、生成和管理用于训练算法和制定决策的数据,同时减少偏见,强化数据隐私及安全。

然而,当前的大部分算法虽然高效,却缺乏透明度。为此,许多专家和机构正在不断研究,希望能够提高对深度学习算法的透明度和可解释型。比如,谷歌一直呼吁的就是“公平而负有责任”的AI研发。

对此,不久前普华永道(PwC)公布了一个“负责任的AI框架(Responsible AI framework)”,强调了专用AI提高结构性能,提高AI透明度的重要性。

埃森哲推出AI测试服务,深度学习算法的“黑匣子”问题或将不再

▲Responsible AI framework

该框架包括了四大部分:战略、设计、发展及AI的运行:

  • “战略”:强调了是要将AI的创新能力与企业核心战略目标和绩效指标相结合,以及人为干预在AI系统运行过程中的重要性;
  • “设计”:则重点提出了要“打开”AI的“黑匣子”,普华永道认为,缺乏透明度会造成固有声誉和一定的财务风险,因此确保软件设计尽可能透明且可审计,这一点非常重要。同时,它提出,最有效的“控制”是在设计和实施阶段建立的,可以引入“行为抑制程序”或“对抗模型”,用以监测AI技术的适应性和准确性标准;
  • “发展”:重新梳理计划管理、管理数据的依赖性、用足够的时间进行测试和训练、设置置信度阈值;
  • “运行”:一方面要认识到高质量数据的关键作用,预防数据带来的无意的“偏见”,另一方面则要预防系统性风险,防范有意的攻击。

此外,另一咨询公司埃森哲近日也透露,企业将很快能为AI系统提供专门的测试服务。通过其推出的AI测试服务,企业能够利用自身的基础设施或云计算建立可靠的AI系统,并进行监控和测量。此外,还包含面向团体机构的测试策略、工程、数字和企业技术。

埃森哲技术服务集团首席执行官Bhaskar Ghosh表示:“企业在推动创新和发展的过程中,见证了转变的价值,因此正加速推广AI。随着AI融入各企业,为确保其安全和质量,避免对企业业绩、品牌声誉、规则等造成负面影响,寻求更佳的方式训练维持这些系统,就变得至关重要。”

埃森哲推出AI测试服务,深度学习算法的“黑匣子”问题或将不再

通过“教学与测试”方法,将确保AI系统以两种不同方式作出正确决策:

“教学”阶段负责检测用于训练机器学习所选用的数据、模型和算法,统计评估不同模型以达成最佳的生产模式的同时,遵守道德规范,避免性别、种族等偏见。

“测试”阶段将对比AI系统的所有输出结果与企业内部的关键性能指标,评估系统是否能解释某决策或输出的依据。埃森哲表示,为维持系统性能,该阶段采用了创新技术与云计算工具持续监测系统。

一家金融服务公司曾用该方法训练了会话虚拟客服。据该公司称,其训练速度较之前提升了80%,客户推荐服务的准确率高达85%。不仅如此,它还被用于训练情绪分析解决方案,评估某品牌的服务水平。

埃森哲高级管理总监兼战略及全球测试服务负责人Kishore Durg表示:“AI测试系统仍面临着一些挑战。传统应用程序测试的预设场景数量有限,因此结果不太可靠。而AI系统需要的是无限量的测试方法。因此,我们还需掌握数据评估、模型学习、算法选择、偏见监测及遵从道德法规等能力。”

埃森哲推出AI测试服务,深度学习算法的“黑匣子”问题或将不再

无论如何,我们看到随着AI的应用前景愈发明朗,越来越多的利益相关方和企业正着眼于解决AI算法的“黑匣子”问题。我们也相信,一旦这一问题得以解决,AI 技术在企业中的创新与应用将出现一个质的飞跃。

分享至
0赞

好文章,需要你的鼓励

推荐文章
  • 南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。

  • 香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。

  • 中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。

  • 字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-