微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 英特尔想让“智能体PC”,成为每个人的“数字分身”

英特尔想让“智能体PC”,成为每个人的“数字分身”

2026-04-24 18:21
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2026-04-24 18:21 金旺

2023年,AI PC的提出,标志着PC开始从传统计算工具转向AI增强型设备。

在这之后,AI PC迅速成为市场主流,来自Gartner的预测数据显示,2025年全球AI PC出货量预计达到7780万台,占整体PC市场的31%。

然而,随着OpenClaw(“龙虾”)在2025年11月的发布,一波“养龙虾”潮流席卷全球,“养龙虾”也再次引爆了智能体应用热潮

在这波潮流中,用户通过本地部署大模型,让AI代理接管复杂任务,如自动化办公、内容创作、数据处理等任务,对端侧算力提出了更高的要求。

正是在这样的背景下,英特尔提出了“智能体PC”这一新概念,英特尔中国区技术部总经理高宇在近日的分享会上指出,“智能体PC”是一个为“智能体”使用而优化的“进阶版”AI PC。

这样的智能体PC,正在让AI从“被动工具”真正转变为用户的“数字分身”。

英特尔想让“智能体PC”,成为每个人的“数字分身”

01 OpenClaw背后的隐忧,对硬件提出了新要求

自2022年11月ChatGPT面世后,全球人工智能技术进入到了一个新周期。

这之后的人工智能技术发展,高宇将其总结为三个阶段:

第一阶段,生成式AI的兴起,行业追求的是模型的“头脑发达”。

ChatGPT发布后,整个行业在全力卷大模型的参数规模与智能水准,目标是让AI具备更强的理解与生成能力。

第二阶段,模型与工具的快速迭代,行业开始追求模型的“四肢强健”。

在大脑能力逐步提升时,大模型开始强调工具调用能力,过去两年涌现出了LangChain、Function Calling、MCP、Skills等框架,这些框架让AI不仅能思考,还能通过接口与外部世界互动。

第三阶段,智能体跨步式快速发展,应用潮来袭。

随着Manus、Claude Co-work、OpenClaw等产品的发布,智能体实现了从意图理解、任务分解、工具调用到迭代执行、记忆保持的全链条自主能力,智能体如同被赋予了“智能化身体”的AI,不再是单纯的问答机器,而是能主动服务用户的代理,这其中尤以OpenClaw上线最具代表性。

2025年11月,OpenClaw上线发布后迅速走红,它将云端智能体能力下放到PC端,通过与个人数据、账号深度结合,实现了高度拟人化的“数字分身”体验,例如持久化本地记忆、即时通讯式交互、自主执行复杂工作流,这样的使用体验一时间让“养龙虾”在全球成为潮流。

然而,从市场热度上来看,仅仅用了一个月,市场就开始趋于理性,据高宇分析,其实OpenClaw及类似产品演进速度并未减速,但其使用门槛过高、诸多先天不足劝退了大量小白用户,这主要表现在四个方面:

英特尔想让“智能体PC”,成为每个人的“数字分身”

第一,安全性问题,智能体获得高级权限后可能会执行危险操作,如乱删邮件、格式化硬盘,甚至出现“龙虾自杀”现象;

第二,隐私问题,用户隐私数据(如聊天记录、文件内容)可能在交互中被泄露,官方层面也多次发出风险提示,云端处理模式加剧了用户对隐私问题的担忧;

第三,使用成本高,重度用户单日消耗上亿Token不在少数,月底Token账单常常令人咋舌,尤其是涉及TTS、ASR、视频理解等多模态任务时,成本呈指数级上升;

第四,系统脆弱性,软件更新频繁,升级后功能失效的情况时有发生,用户体验“战战兢兢”。

正因为有诸多门槛,OpenClaw及其衍生出的智能体仍更多是工程师的玩具,难以实现大规模普及,要想进一步得到普及,则对底层AI PC硬件提出了更高要求——不仅需要更强大的本地算力,还需要AI PC支持端云混合、智能路由、安全护栏、长期记忆等高级特性。

基于此,英特尔提出一个全新的概念,智能体PC。

02 智能体PC,有何不同?

所谓智能体PC,高宇给出的解释是,它是为智能体使用而优化的进阶版AI PC,是每个人的“数字分身”。

相较于传统PC,智能体PC具备四大核心能力:

第一,本地智能体实现任务闭环能力,无需用户一步步进行操作,智能体可自主完成复杂任务流程;

第二,端云结合的混合AI推理能力,根据上下文智能路由,高频、隐私敏感或中小模型就可以胜任的任务交由本地“辅脑”,需要强推理或长上下文的任务路由至云端“主脑”,实现性能、隐私、成本与速度的平衡;

第三,具备长期记忆与自主进化能力,记住用户习惯、任务、偏好,说话风格和工作节奏,越用越懂你,记忆持久化存储于本地;

第四,具备本地安全保护能力,内置安全护栏,保护高隐私数据和高危操作。

在软件逻辑架构上,智能体PC更像是一个“虚拟人”,共由五大模块组成——思考模块(AI大脑)、调度模块(Agentic Runtime,负责任务调度与上下文维护)、执行模块(工具调用,包括Python、脚本、MCP、Function Calling等)、通信/交互模块(多模态,自然对话、手势等)、记忆模块(向量数据库与持久化存储)。

英特尔想让“智能体PC”,成为每个人的“数字分身”

在分享会上,高宇还就传统PC与智能体PC的在操作方式、记忆方式、推理方式、应用呈现方式、任务执行方式、信息处理方式等方面的差异进行了详细对比。

英特尔想让“智能体PC”,成为每个人的“数字分身”

实际上,本质上来看,传统PC具备的是工具属性,需要人去学习如何使用PC,并用它来完成不同的任务,智能体PC的使用对象从人变成了智能体,人无需再学习工具的使用方式,而是由智能体作为人类的数字分身,来使用智能体PC,从而更好地服务人类。

值得一提的是,英特尔并不是要完全将大模型、将智能体运行在本地,高宇告诉我们,云上模型与本地模型各有优缺点, 云上模型可以提供更强大的AI能力、更长的上下文处理能力,但是可能伴随成本高昂和隐私顾虑,端侧AI可以解决某些成本和隐私顾虑问题,但是端侧AI能力和云上模型在智能上仍有差距。

他认为,端侧运行模型的最优解是35B上下,再往上成本过高,往下则能力受限。

基于这样的判断,英特尔为智能体PC打造了清晰的硬件配置推荐体系,覆盖入门、主流与旗舰三类:

英特尔想让“智能体PC”,成为每个人的“数字分身”

入门级:第三代英特尔酷睿处理器(Wildcat Lake),配备40TOPS算力,搭配12GB+内存,适合运行如Qwen3.5-4B轻量化模型与多模态任务;

主流级:第三代英特尔酷睿Ultra处理器(Panther Lake),最高达100TOPS算力,搭配16GB+内存,可以支持Qwen3.5-9B此类中量级模型;

旗舰级:第三代英特尔酷睿Ultra X系列处理器,最高达180TOPS算力,搭配32GB+内存,可以流畅运行Qwen3.6-35B-A3B此类MoE模型。

基于这样的硬件配置,英特尔为智能体打造了一具迈入真实世界的身体——智能体PC。

03 人均一个数字分身

第三代英特尔酷睿处理器,为智能体应用落地,扫清了算力障碍,与此同时,也从硬件层面为OpenClaw遗留下来的隐私、安全等问题,提供了一条不一样的解决路径。

在分享会现场,英特尔技术专家通过多个生动Demo,演示了智能体PC在真实场景中具备的能力。

例如,在财务场景中,本地OCR Skill快速识别多张发票,结合Guardian安全护栏,可以让智能体在财务场景得到很好的应用——在不打开Guardian安全护栏时,由于OpenClaw无法理解本机语义,敏感文件可能回直接上传到云上,而在开启这一功能后,就可以很好地保护机密信息不泄露,甚至可以防止云端模型因幻觉执行危险删除操作动作,防止“龙虾自杀”;

英特尔想让“智能体PC”,成为每个人的“数字分身”

在内容创作场景中,英特尔专家演示了运行在运行在B390的iGPU上进行加速Qwen3.5和信息抓取Skill,辅以Qwen3.6-35B-A3B主脑,搜索并总结一天的财经新闻,无需额外购买Token,就可以实现这一功能;

……

现场的这些Demo不仅体现了智能体PC作为用户数字分身的独特意义存在,也凸显了Skill的核心价值。

高宇指出,Skill本质上是给大模型的说明书,可以通过逐级提示词的方式减少Token消耗,并指导大模型把事情做对。

正因如此,繁荣Skill生态是智能体PC发展的前提,也是大模型能聪明地调度本地AI能力的关键。

为此,英特尔正在构建一个由英特尔甄选Skills、英特尔参考Skills、社区Skills在内的三层Skill生态。

基于这一生态,英特尔将进一步为自媒体播主、视频创作者、财务人员、教师,乃至学生,量身打造配备专用Skill的智能体PC,让人均一个数字分身在未来成为可能。

分享至
0赞

好文章,需要你的鼓励

金旺

Wille
关注智造、硬件、机器人。
推荐文章
  • 南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    南方科技大学等机构联手破解AI推理训练难题:让大模型"一次思考"就学会解题

    本文介绍了由南方科技大学等机构于2026年4月发表的研究(arXiv:2604.08865),提出了名为SPPO的大模型推理训练新方法。该方法将推理任务重新建模为"序列级情境赌博机",用一个轻量级价值模型预测题目难度,以单次采样替代GRPO的多次采样,解决了标准PPO的"尾部效应"问题。实验显示,SPPO在数学基准测试上超越GRPO,训练速度提升约5.9倍,配合小尺寸价值模型还能显著降低显存占用。

  • 香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    香港科技大学数学系研究者:扩散模型原来是一个"魔法恒等式"拆成了两半

    这项由香港科技大学数学系完成的研究(arXiv:2604.10465,2026年ICLR博客论文赛道)提出了一种从朗之万动力学视角理解扩散模型的统一框架。研究指出,扩散模型的前向加噪和逆向去噪过程,本质上是朗之万动力学这一"分布恒等操作"被拆成了两半。在这个视角下,VP、VE-Karras和Flow Matching等不同参数化的模型可被精确互译,SDE与ODE版本可被统一解释,扩散模型相对VAE的理论优势得以阐明,Flow Matching与得分匹配的等价性也得到了严格论证。

  • 中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学研究团队打造的"AI科学家":让机器自主完成几十小时的科研工程,它是怎么做到的?

    中国人民大学高岭人工智能学院等机构联合开发了AiScientist系统,旨在让AI自主完成机器学习研究的完整工程流程,包括读论文、搭环境、写代码、跑实验和迭代调试,全程无需人工干预。系统核心设计是"薄控制、厚状态":由轻量指挥官协调专业代理团队,通过"文件即通道"机制将所有中间成果持久化存储,使每轮工作都能建立在前一轮积累的基础上。在PaperBench和MLE-Bench Lite两个基准上,系统表现显著优于现有最强对比系统,论文发布于2026年4月。

  • 字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    字节跳动发布GRN:像人类画家一样"边画边改"的AI图像生成新范式

    这项由字节跳动发布的研究(arXiv:2604.13030)提出了生成式精化网络(GRN),一套模仿人类画家"边画边改"直觉的视觉生成新框架。其核心包括两项创新:层级二进制量化(HBQ)通过多轮二分逼近实现近乎无损的离散图像编码,以及全局精化机制允许模型在每一步对整张图像的所有位置重新预测并随时纠错,从根本上解决了自回归模型的误差积累问题。配合基于熵值的自适应步数调度,GRN在ImageNet图像重建(rFID 0.56)和生成(gFID 1.81)上均创下新纪录,并在文本生成图像和视频任务上以20亿参数达到同等规模方法的领先水平。

----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-