英特尔打算如何造智能体PC?


龙虾本和AI Box的火热都暗示着智能体PC快速发展成为既定事实。作为AI PC衍生形态的重要分支,智能体PC执行效率更高,但配置和复杂度也同步升级,究竟如何调用本地AI和云端AI算力,智能体PC如何做到可靠、简单、易用,都是整个行业需要探讨的问题。在这个时间点,英特尔的进场也意味着整个刚刚建立起来的龙虾生态进入高速发展阶段。

那么英特尔打算如何造智能体PC?在发布会后,我们有幸通过英特尔中国区技术部总经理高宇和在场的英特尔技术专家,对智能体PC进行了更深入的了解。

智能体PC的核心竞争力

安全护栏(Guardian)和任务路由(Hybrid AI Routing)被认为是智能体PC的核心竞争力之一,安全护栏是将防护从被动防御升级到主动防御,这不是传统杀毒软件或防火墙,而是嵌入AI推理流程中的实时决策层。它在大模型生成动作指令与实际执行之间插入了一道判断闸门。任务路由更好理解,任务如何归属本地算力和云端算力,主要是由任务路由完成。

龙虾应用场景目前面临了两种高危操作,一种是系统级危险操作,通过自然语言歧义,例如通过“恢复到以前状态”直接对系统进行完全重置而直接崩溃。安全护栏(Guardian)就是要解决这样的问题,在删除动作执行前,识别操作风险等级并中止。

同时,安全护栏也能很好的解决数据泄露风险,在数据出站网络请求发起前,扫描文件元数据/内容标记,触发拦截。

值得注意的是,安全护栏不是让大模型重新理解提示词,而是无论模型如何理解,只要输出的是删除或者上传等危险动作,一律被拦截。这降低了依赖模型自身安全对齐的不确定性。目前安全护栏属于Skill防护,属于应用层面,但数据安全已经迫在眉睫,意味着这一套安全方式未来会给AI提供不同的访问等级,例如通过可信执行环境TEE,配合AI推理的融合架构,敏感数据在硬件隔离区内完成推理,即使系统层被攻破也无法提取。

任务路由(Hybrid AI Routing)解决的是AI算力的归属问题。想让智能体PC开箱即用,让用户自行手动切换的体验注定不会好。目前有两种方式可以选择,一种是大模型自路由,由云端大模型判断任务的分配给云端还是本地,缺点是响应延迟会变高,同时也会占用本地算力。另一种是外挂专门的路由模型,响应速度快,但是会增加系统复杂度。目前两种路由方式都在验证和讨论中。

虽然还没有最终定论,但路由判断决策已经成型,它应该具备文本总结和复杂推理的区分能力,并且能够标记数据敏感度,洞察本地算力资源状态,判断网络质量,以及对Token成本的自行判断。

与安全护栏一样,任务路由目前也处在Skill阶段,英特尔在其中扮演了路由决策框架角色,而非最终路由产品的提供者。在此基础上,OEM和ISV可以按照路由决策框架叠加自家商业逻辑,完成任务路由部署。

有意思的是,英特尔强调了发布会现场展示的文生图、ASR、TTS、OCR等7个Skill开发周期不超过一天,相比传统应用数个月的开发周期,Skill的升级速度碾压了后者至少两个数量级。也可以遇见智能体PC Skill发展后续是非常猛的。

回答了核心的Skill问题的同时,如何在端侧完成AI算力卸载也同样是一个问题。AI SSD正是在这样的需求下诞生的。AI SSD是英特尔与群联合作的软硬件协同的方案,在硬件层通过SLC+TLC混合分区组合,满足KV Cache和静态存放数据的需求。

AI SSD在软件层面具备两个核心机制。一个是MoE冷专家卸载,MiniMax和部分Qwen版本在推理时并非所有专家模块都会被激活。通常只有5-10%的专家参与单次前向传播。将当前任务不需要的冷专家权重从内存卸载到AI SSD的TLC分区,仅保留热专家在DRAM中。这样做可以显著降低常驻内存占用,使16GB设备能运行理论上需要32GB+的MoE模型。

与此同时,AI SSD也可以让KV Cache实现复用。大模型生成文本时,已生成的Token的Key-Value状态需要保留在显存/内存中,以便后续Token计算注意力。长文本生成的KV Cache膨胀极快,是模型权重的数倍。这时候后如果将已计算完成的KV Cache写入AI SSD的SLC分区,下次生成时直接读取复用,无需重新计算。当KV Cache复用得以实现,多轮对话、长文档续写等场景将会被加速,并且还能进一步释放DRAM压力。

英特尔在现场就演示了一款16GB内存的轻薄本实现了35B模型的运行自由。35B模型通常需要约70-80GB(FP16)或35-40GB(INT8)的内存实现。通过AI SSD扩展,16GB物理内存即可运行,并且可以完成多轮对话,不受内存容量限制。当然这也是在内存与SSD日益昂贵的前提下,折中妥协的解决方案。

即便如此,这套方案能够在DDR内存降价之前,就能带来显著的降本增效收益,无论内存和SSD是否降价,这样的收益在任何时候都是难以拒绝的。目前为止,AI SSD还属于英特尔与群联的合作方案,英特尔有意将其推广为行业通用标准,类似当年傲腾的持久内存概念,但用更成熟的NAND Flash实现。

构建生态,不做全案

AI Box在发布后被广泛关注,不同于早年的Intel NUC,AI Box提供的底层硬件平台参考设计和下一层软件解决方案,而非软硬件的全面推广,因此AI Box与此前的NUC有很大的不同。NUC主要提供了主板参考设计、散热、机箱规范以及基本驱动支持,然后由华硕、技嘉、小米等厂商去制造整机、贴牌销售。英特尔本质上卖的是标准化积木,而非完整产品。

AI Box可以理解成进入智能体PC时代后的一个分支升级。英特尔提供的是AI Box等设备的底层算力平台参考设计,在软件层具备原子化的AI加速API、模型封装、Guardian安全能力。最后在生态上,由硬件制造、软件ISV、模组厂商以及系统集成商共同完成。

因此在分工上,英特尔负责AI Box的底层架构,包括由酷睿Ultra构建起来的算力平台,AI SSD硬件规范和接口标准。同时提供底层驱动和系统级优化,并将AI模型加速、API调用、安全防护等复杂功能深度优化后抽象为标准化接口。

在硬件基础之上,则是由英特尔与合作伙伴共同打造的标准,英特尔负责输出概念验证和技术思路,合作厂商打造具体的商业化方案,比如将安全护栏Guardian产品化,任务路由方案落地,以及AI SSD的标准最终由SSD厂商以及OEM共同实现。

有了硬件和标准托底,生态才有机会实现自由发挥。例如AI Box本体可以是由NUC合作伙伴制造,软件层面则可以五花八门,比如QClaw、Molili、百度DuMate、腾讯WorkBuddy、TRAE等。

这套生态打法目的是突破各领域潜在的小白用户,智能体PC的初衷是做到开箱即用。英特尔在其中扮演的橘色是牵头定义技术方向,输出标准,然后与合作伙伴共同创新,打造丰富的智能体PC生态。这样做的好处是,可以最大化的提升各领域厂商的分工效率,英特尔的核心竞争力在半导体设计、制程、系统级优化,而非硬件制造或者软件消费,同时标准化接口可以避免过度零碎的千人千面方案,围绕在合理的标准下构建丰富的生态场景。

英特尔的目标是让智能体PC成为普适化设备,而非高端玩家的玩具。只有开放生态,才能让不同价位的设备、不同偏好的软件共存,最终让AI算力成为处理器的评判标准,而非少数品牌的溢价工具。

让门槛降低

构建简单易用的Skill生态被认为是降低智能体PC的关键。现在本地部署AI门槛是地狱级的,在Skills出现之前,让普通用户在本地PC上跑起一个AI工作流,至少需要完成安装Python、CUDA、PyTorch/TensorRT、依赖库版本对齐,再从HuggingFace等站点下载几十GB权重文件,选择FP16、Q8等量化版本,然后再配置上下文长度、温度系数、Top-P、系统提示词,最后用代码或YAML将多个模型工具串联,非常复杂。

由此可见,Skill一键封装成为关键。Skills的本质是将上述所有步骤打包成一个可声明式安装的单元。用户与Agent的交互简化到一句话,比如“帮我安装这个Skill"”即可完成。这意味着Skills的安装过程是Agentic,大模型本身作为执行者,自动完成下载、配置、注册,而非用户手动点击安装向导。

英特尔尝试构建Skill生态,目的就是加速这个安装和部署的过程,并帮助用户重复试错,短时间内找到最优解。用Skill作为容器,封装模型选择、量化配置、提示词模板、工具调用链。对于开发者而言,合适的Skill生态可以形成可复用的知识沉淀,类似GitHub的代码仓库或Docker Hub的镜像。

正如前面所说,发布会当天展示的7个Skill实际上只用了一天就完成了开发,则是因为Skill本身依赖于Web Coding成熟表现,AI辅助编程已经能让代码生成和调试效率倍增。与此同时,大模型作为执行引擎,可以让Skills的安装和运行依赖Agent的自动执行能力,开发者只需定义做什么,不必写完整的安装脚本。

同时,完善的Skill生态类似于各厂家官方APP Store,可以很好的避免危险的操作,构建完整的功能封装和安全护栏结合,确保本地信息安全。Skill可以被当成优选APP一样,选择和下载。

当然Skill生态的商业模式细节还有待探讨,在概念成型至今仅有数个月的时间内,英特尔在做的是不断降低开发门槛高,利用生态优势带动业内合作伙伴快速填充Skill生态中的内容。

毋庸置疑的是,Skill生态配合智能体PC,可以让端侧AI体验更进一步。特别是在弱网环境中实现高可用,以及零Token成本实现本地推理,确保本地图像、语音和数据文档不出本地设备,这些都是AI PC和智能体PC的优势。

在现阶段,端侧AI PC已经可以做到同时部署35B本地大模型、OCR、Z-Image和ASR/TTS等多个模型。所有模型在一个任务流中,模型按步骤唤醒,而非同时驻留内存,从而保持资源释放,这个过程对于用户而言是一步完成,类似于汽车的自动挡,档位切换是无感知的。

面对逐步升级的存储压力,智能体PC的硬件成本也应该控制在可接受范围内。这实际上是一场精度与成本的博弈,例如目前的最先进的KV Cache压缩技术应该持谨慎态度,因为极致的内存压缩是以牺牲显著精度为代价的。这种精度损失的程度,对于行业是否可接受,目前仍是一个待讨论的问题。

在现在的条件下,如何让16GB内存变得可用,精度如何平衡不同任务类型中的表现,有效的在压缩方案、资源与质量之间做出权衡,都是非常值得探讨的问题。

在现在最前沿的消费端算力前提下,也应该遵循够用原则。比如端侧运行35B模型,配合16G+AI SSD或32G内存,CPU配置选择酷睿Ultra X7 358或325即可提供优秀的综合体验,更复杂的内容应该交给云端,构成本地为主、云端为辅的混合架构,在成本、延迟、隐私基础上完成优化,提升智能体PC的易用性和普适性,这才是英特尔推动整个智能体PC生态发展的重要目的。

展开阅读全文

更新时间:2026-04-24

标签:数码   英特尔   智能   模型   路由   生态   内存   护栏   硬件   云端   方案

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034903号

Top