备受关注的千问大模型最新进展曝光。4月26日,阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇在阿里云合作伙伴大会上透露:超过20万企业用户申请接入千问测试,企业专属大模型的合作需求十分火爆,几乎覆盖所有新兴和传统行业。为加速服务各行各业,阿里云宣布启动“通义千问伙伴计划”,首批将联合七家顶尖生态伙伴推动大模型在不同行业落地应用。
超20万企业用户申请测试
“过去几个月,我碰到的所有客户、所有伙伴,包括我们所有的企业都在思考一个问题,就是如何用新一代的人工智能技术来武装自己。”张勇说,大模型让所有企业站在了同一起跑线上,再次激活了千行百业。他透露,已有超20万企业用户申请测试千问大模型,企业合作专属大模型的需求十分火爆。从通讯、电子产品、企业服务、金融信息,到交通、电力、油气、服饰甚至乳制品等,几乎每个行业都有许多企业找来,这是一片巨大的智能化新市场。
张勇表示,阿里云无法自己承接所有需求,我们需要联合各个行业的生态伙伴一起服务全社会。阿里云生态伙伴对接入千问大模型也极为踊跃,目前,阿里云已为核心合作伙伴开通了测试权限。
首批携手七大伙伴加速大模型行业应用
为加速大模型落地,阿里云宣布启动“通义千问伙伴计划”,将优先为千问伙伴提供大模型领域的技术、服务与产品支持,共同推动大模型在不同行业的应用。
昆仑数智、朗新科技、千方科技、中金财富、石基集团、用友网络、亚信科技七家顶尖的行业数字化服务商成为首批伙伴,覆盖油气、电力、交通、金融、酒旅、企服、通信行业。
阿里云智能集团CTO周靖人介绍,各行各业的生态伙伴都可以结合自己的行业知识及场景需求,对千问大模型进行再训练和精调,打造专属大模型,并集成进自己的行业整体解决方案中。千问专属大模型具有定制化、易集成、可微调、强安全等特点。
专属大模型训练过程中,阿里云如何保障伙伴和企业的数据安全?周靖人表示,阿里云将提供安全可隔离的专属数据存储空间,通过服务器端加密机制,实现高安全性、高合规性的数据保护。伙伴和企业可以上传自己的行业数据,并调用千问进行重新训练。这些数据不会被用于训练通用版的千问大模型,阿里云和任何第三方都无法触碰。
训练完成后,通过完善前端提示工程,专属大模型还可以通过Web界面和专属API向垂直领域的各类企业、开发者提供应用服务,比如通晓行业知识的智能客服、导购、咨询专家、创作助手、工业机器人等。
未来,阿里云将推出多种参数版本的千问大模型,伙伴和企业可根据需求选择不同模型规模的训练服务,按token计价。
专属大模型云上推理可选择按token计量计费的后付费模式或账号权限+资源包的预付费模式。
千行百业对大模型的需求正在爆发
“今天我们看到的未来是一个智能化时代的开端,这个起点带来的影响,我认为至少是十年、二十年。”张勇在大会现场强调,每个行业都值得用大模型重新做一遍。
软件行业是大模型最坚定的拥抱者。国内企业云与软件服务商用友网络,成为首批千问伙伴,双方将探索将千问大模型的能力应用于用友BIP全系列产品,基于大模型强大的分析与交互能力,帮助企业从数字化迈向智能化。
亚信科技副总裁傅葳表示,“我们在深度研究了大模型市场后,决定全面拥抱阿里云,加入通义千问伙伴计划。”阿里云拥有行业领先的产品和技术能力,亚信科技则在运营商、政企行业数智化领域有数十年的积累,双方共创通信大模型将为客户创造更大价值。
许多传统产业也在积极探索大模型。比如,中国石油集团数字化转型专业化公司昆仑数智,本次也成为首批千问伙伴,将与阿里云联合共建油气大模型,为油气勘探生产经营的全流程提供决策参考。
“大模型尤其适合处理包含大量数据和知识的复杂问题。”昆仑数智相关负责人表示,油气是数据密集型产业,比如在油气勘探环节,“给地球做一次三维CT”需处理PB级的地质数据,随着技术的演进,数据规模和复杂度还在增加。融入行业知识后,千问大模型有望帮助更好地理解、分析、利用海量油气数据,实现全链路的提质增效。
好文章,需要你的鼓励
想象一下,你有一个非常聪明的朋友,他知道很多知识,但每当需要使用计算器、搜索引擎或查询最新天气时,却变得像个笨手笨脚的孩子。这正是当前大语言模型(简称LLMs,如ChatGPT这类AI系统)面临的尴尬处境。
想象一下,你拥有一个聪明的助手,它知道很多知识,但在面对需要使用计算器、搜索引擎或查询最新信息时却显得笨手笨脚。这正是当前大语言模型(LLMs)面临的困境。虽然这些模型已经通过监督微调(SFT)学会了使用工具的基本能力,但它们常常在面对复杂或不熟悉的场景时表现不佳。
想象你正在和一个智能助手聊天。如果你直接要求它提供有害信息,它很可能会礼貌拒绝。但如果你通过一系列看似无害的对话,逐步引导它走向你的真实目标呢?这就是当前AI安全领域面临的一个严峻挑战——多轮对话中的安全漏洞。
想象你在使用一个非常聪明的AI助手完成一项复杂任务,比如解决一道数学难题。你可能注意到这个助手会花很长时间"思考",一步一步写下大量推理过程,最后才给出答案。虽然这种详细的思考过程确实帮助AI做出了更准确的判断,但同时也带来了一个明显的问题:它太"啰嗦"了,消耗了大量的计算资源和时间。