根据最近一些人工智能的应用进展和状况相关调查、研究、预测和其他定量评估,我们总结出以下几点趋势:第一,人们对人工智能带来商业利益的期望迅速增长,而迄今为止,获得商业收益的几率却很低;第二,全球企业越来越多地采用AI,但在具体实施以及与现有流程集成过程中面临的挑战也越来越多;第三,企业在拥抱AI的过程中,不可避免地遇到了裁员和必要的员工培训等问题。
>>> 企业对于用人工智能应用的态度
据MIT Sloan对来自29个行业和97个国家/地区的2555名高管进行管理审查和BCG调查显示:
根据RELX对1,028位美国高管的调查显示:
根据Optum对500个美国医疗行业领导企业的调查显示:
根据TransUnion/AITE Group对美国、加拿大、英国、香港和印度的金融机构的682位营销和风险主管进行的调查显示:
>>> 人工智能的业务影响
MIT Sloan Review和BCG调查显示,针对德意志银行在德国推出的消费信贷产品,AI会在客户填写贷款申请时实时决定是否向客户提供贷款;针对这一特定产品,AI服务启用后的八个月内,贷款额激增了10到15倍。
以西门子为例,通过在招标过程中采用机器学习技术,使得西门子在详细说明企业需要采购的商品和服务规格,并进一步对比厂商建议的这一工作流程中,速度提高了20%到30%。
>>> 未来的工作方式
富国银行(Wells Fargo)行业分析师最近发布的一份报告显示,到2030年美国有多达20万的银行员工可能会因为AI而失业。该报告估计,大型资本化金融机构的AI支出每年累计超过1500亿美元。在过去的两年中,BB&T采用了数字化优先的策略,将人工智能和机器人技术运用于后台、客户服务和合规运营中。自2016年底以来,BB&T的这项计划已经导致员工数量减少了2439人至35334(降幅6.5%),分支机构员工人数减少409人至1787人(降幅18.6%)。
对此,有52%的美国医疗领导企业期望AI可以创造更多的就业机会,而87%的受访者对于聘用具有AI工作经验的候选人是首要任务表示认同;有89%的受访者表示,培训员工的速度不足以跟上AI创新的速度,而91%的受访者估计,新工作岗位有10%至50%是具有AI经验的。
有62%的企业高管表示,他们的企业目前提供AI相关培训,高于2018年的46%;在那些不提供培训的企业中,只有53%表示计划未来会提供。有93%的受访者认为,美国企业应该通过与大学合作等形式的教育计划对未来人工智能劳动力进行投资。
在MIT Sloan Review和BCG的调查报告中指出,与那些不注重技能再培训的企业相比,那些在雇用或者留住AI人才方面遇到难题、但仍然积极帮助现有员工获得AI技能的企业,从AI中获益的可能性要高出40%。。
>>> 数据是人工智能发展的驱动力
据Exasol对1,000名IT决策者的调查,有80%的IT决策者称,有半数时间里数据都是可以指导企业组织进行决策的,但是在性能、安全性和预测挑战方面遇到的挑战,阻碍了改进数据策略的能力。具体来说:
举个例子:Global Tone Communications Technology是一家中国国有企业,该企业在每天可以从社交媒体和传统媒体等来源中挖掘65种语言的5万亿个单词,供中国国家安全机构使用。
>>> 人工智能风险投资
根据美国国家风险投资协会(National Venture Capital Association)2019年第三季度的数据显示,今年前9个月美国965家AI相关企业已经获得了135亿美元的风险投资,这一数据也让2018年的168亿美元(数据来自2019年第三季度PitchBook-NVCA Venture Monitor的数据)黯然失色。
>>> 关于人工智能应用的讨论
“AI设计者或者采购管理员的价值不一定是床边临床医生或患者的价值,这些价值冲突将成为重大道德冲突的源头。”——Danton Char,斯坦福大学医学中心麻醉学、手术期和止痛医学助理教授
“我不完全同意这种机器是完全自主的、无需人工干预即可运行的观点。至少在今天以及可预见的将来,AI机器只是一种工具。”——Andrei Iancu,美国专利商标局总监
“如果领导者将AI视为资产负债表,那么他们将错失这个机会。你需要了解AI可能带来的颠覆性变化。”——Werner Boeing,罗氏诊断公司(Roche Diagnostics)首席信息官
“对我们而言,主要的优势在于提高了参与度,其次才是变现以及给我们和整个联盟带来新增收入。这些数据将具有巨大的价值。”——Dave Lahanski,美国职业冰球联盟(NHL)业务发展和全球合作伙伴关系高级副总裁
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。