微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 麦肯锡:使用人工智能技术的五大障碍

麦肯锡:使用人工智能技术的五大障碍

2018-02-13 17:01
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2018-02-13 17:01 科技行者

人工智能就像个不断移动的标靶,而企业要做的就是努力“正中靶心”。

麦肯锡:使用人工智能技术的五大障碍

《麦肯锡在全球调研分析了160个案例,给出5个行业的34个AI应用场景》)中指出,行业中的领导企业往往更青睐于对人工智能技术的投资和应用(如图1)。

麦肯锡:使用人工智能技术的五大障碍


-1- 需要大量的数据标记

大多数现有的AI模型都是通过“监督学习”训练而成的。这意味着人类必须对样本数据进行标记与分类,但这一过程很可能存在一些难以察觉的错误。强化学习与生成式对抗网络(GAN)是解决这一问题的两个重要手段。

强化学习。强化学习是一种无监督学习的方法,它允许算法通过反复试验完成学习任务。有点像是“胡萝卜加大棒”的简单训练方式:即对于算法在执行任务时所做出的每一次尝试,如果其行为获得成功,则给予“报酬”(例如更高的分数); 如果不成功,则给予“惩罚”。经过不断重复,使得学习环境能够准确反映现实情况,从而提升模型的效能。

目前这一方法已经广泛应用于游戏领域,AlphaGo就是一个典型例子。此外,强化学习还拥有在商业领域应用的巨大潜力,比如,通过构建一套人工智能驱动型交易组合,从而在盈利与亏损之间学习发现正确的交易规律; 比如,打造产品推荐引擎,以积分方式为销售活动提供决策建议; 甚至以按时交付或减少燃油消耗作为报酬指标,开发运输路线选择的软件等等。

生成式对抗网络。生成式对抗网络是一种半监督学习的方法,通过两套相互对抗的神经网络,不断完善各自对同一概念的理解。以识别鸟类图像为例,一套网络负责正确分辨鸟类图像,而另一套网络则负责生成与鸟类非常相似的其它图像对前者进行迷惑。当两套网络的表现最终趋于稳定时,其各自对鸟类图像也拥有了更为准确的认知。

生成式对抗网络能够在一定程度上降低对数据集数量的要求。举例来说,通过训练算法从医学图像当中识别不同类型的肿瘤时,以往科学家们往往需要从人类标记的数百万张包含特定肿瘤类型或阶段的图像当中提取信息并创建数据集。但经过训练的生成式对抗网络就可以通过绘制逼真的肿瘤图像,从而训练肿瘤检测算法,在此基础上将小型人类标记数据集与生成对抗网络的输出结果相结合,快速完成学习。

-2- 需要海量的数据集

目前,机器学习技术要求训练数据集不仅包含人工注释信息,同时在体量上也需要够大、够全面。而深度学习也要求模型能够对成千上万条的数据记录进行学习,才能获得相对理想的分类能力; 甚至在某些情况下,其需要学习的数据要达到数百万条才能实现与人类相近的判断准确率。举例来说,如果希望让自动驾驶车辆学会如何在多种天气条件下行驶,就需要在数据集当中输入可能遇到的各类不同环境条件。

然而,在现实应用中大量数据集往往很难获取。对此,一次性学习(One-shot learning)是一种能够减少对大型数据集需求的技术,只需要利用少量现实的演示或示例(在某些情况下甚至只需要单一示例)就可以完成学习,快速掌握新技能。如此一来,人工智能的决策行为将更接近于人类,即只需要单一的样本就可以精确识别出同一类别的其它多种实例。

具体而言,数据科学家们首先会在变化的虚拟环境中预先训练出一套模型,使其能够利用自身的知识顺利找到正确的解决方案。一次性学习通常被认为是计算机视觉中的对象分类问题,旨在从一个或仅少数几个训练图像中学习关于对象类别的信息,并且已经成功应用到包括计算机视觉和药物研发在内的具有高维数据的领域。

-3- “黑匣子”问题

可解释性对于人工智能系统绝不是什么新问题。随着深度学习的逐步普及,其应用范围将不断扩大。但这也意味着,更为多样化以及更前沿的应用往往存在着更严重的不透明问题。

规模更大、复杂度更高的模型使得人们很难解释计算机作出某项决策的原因。然而,随着人工智能应用范围的扩大,监管机构将对人工智能模型的可解释性作出严格规定。

对此,目前有两种新的方法用以提高模型的透明度,分别为与模型无关的解释技术(Local Interpretable Model-Agnostic Explanations,简称LIME)与关注技术(attention techniques)(如图2)。

LIME方法是在一套经过训练的模型当中,确定其作出某个决策过程中更多依赖的那部分输入数据,并利用可解释代理模型对此进行预测。这种方法通过对特定的数据区段进行分析,并观察预测结果的变化,从而对模型进行微调,最终形成更为精确的解释。

关注技术(attention techniques)则是对模型认为最重要的输入数据进行可视化处理,并分析这部分数据与所作出决策之间的关系。

麦肯锡:使用人工智能技术的五大障碍

除此之外,还有另一种方法——广义相加模型(简称GAM)(简称GAM)。线性模型简单、直观、便于理解,但是,在现实生活中,变量的作用通常不是线性的,线性假设很可能不能满足实际需求,甚至直接违背实际情况。广义加性模型是一种自由灵活的统计模型,它可以用来探测到非线性回归的影响。通过对单特征模型的利用,它能够限制不同变量的相互作用,从而确保每项特征的输出更容易被加以解释。

通过这些方法,我们正在慢慢揭开人工智能决策的“神秘面纱”,这一点对于增强人工智能的采用范围具有极为重要的现实意义。

-4- 学习模型的“通用性”

与人类的学习方式不同,人工智能模型很难将其学习到的经验举一反三。因此,即使在相似度很高的案例中,企业也必须多次投入资源来训练新的模型,而这就意味着新的成本。

解决这个问题其中的一种的有效方式是迁移学习。即把一个领域(即源领域)的知识,迁移到另外一个领域(即目标领域),使得目标领域能够取得更好的学习效果。在人工智能领域,就是通过训练人工智能模型完成某项任务,并将其迅速迁移至另一项类似但有所不同的任务环境中来实现“举一反三”。

随着迁移学习的逐步成熟,其将能够帮助企业更快构建起新型的应用程序,并为现有的应用程序提供更多功能。

举例来说,在创建虚拟助理时,迁移学习能够将用户在某一领域(例如音乐)的偏好推广到其它领域(例如书籍)。再比如,迁移学习还能帮助石油天然气生产商,扩大AI算法训练规模,从而对管道及钻井平台等设备进行预测性维护。

另一种方法,是利用能够在多个问题当中应用的广义性架构。譬如DeepMind在AlphaZero当中就设计了一套对应三种不同游戏的架构模型。

-5- 数据与算法中的“偏见”

企业应该如何击中“移动中的标靶”

要解决上面提到的这些局限性难题,我们还有很长的路要走。然而,事实上,人工智能面临的最大局限可能在于我们的想象力。下面,麦肯锡为希望利用人工智能技术实现飞跃的企业领导者提出了一些建议:

做好功课,紧盯目标,并随时跟进。虽然大多数高管并不需要了解卷积神经网络与递归神经网络之间的区别,但也要对目前它们所能实现的功能有大致了解,在掌握其短期发展的可能性的同时着眼未来。

了解数据科学与机器学习专家提出的专业知识,同时与AI先行者们进行交流,补齐自己的短板。

采用精准的数据策略。人工智能算法需要人为的帮助与引导,为此,企业可以提前制定全面的数据策略。该策略不仅需要关注对来自不同系统的数据进行汇总的技术,同时还应关注数据可用性,以及数据的获取、标记、治理等任务。

虽然如上文所说,一些方法可以减少AI算法训练所需要的数据量,但监督式学习仍然是目前的主流。同时,减少对数据的需求并不意味着不需要数据。因此,企业最关键的还是要了解并掌握自己的数据,并考虑如何对其加以利用。

打通数据,横向思考。迁移学习技术目前仍处于起步阶段。因此,如果您需要解决大型仓储体系的预测性维护问题,您是否能够利用相同的解决方案支持消费产品?面对多种销售渠道,适用于其中之一的解决方案是否也能够作用于其它渠道?因此,要让算法能够“举一反三”,还应该鼓励业务部门进行数据共享,这对于未来人工智能的应用将具有非常重要的意义。

主动当一个先行者。当然,只是单纯跟上当前的人工智能技术还不足以保持企业长期的竞争优势。企业领导者需要鼓励自己的数据科学工作人员或合作伙伴与外部专家合作,利用新兴技术来解决应用问题。

此外,要随时了解技术的可行性与可用性。目前各类机器学习工具、数据集以及标准应用(包括语音、视觉与情绪检测)类训练模型正得到广泛应用。随时关注相关项目,并对其加以利用,将有效提升企业的先发优势。

这两年来,虽然人工智能技术已经令人们变得兴奋不已,但实际上目前它的发展所需要的技术、工具与流程还没有完全成形,研究人员正积极解决各类最为棘手的现实问题,作为企业,现在应该做的就是抓紧时间了解AI前沿所发生的一切,并以此为基础定位组织与学习思路,最终利用甚至推动由此带来的一切可能性。

分享至
0赞

好文章,需要你的鼓励

推荐文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-