在当下的科技圈,有一个有趣但悲哀的现实:
那些模型刷榜跑分的参数越来越大,手机的硬件性能越来越强。
但我们用手机的方式,从未变轻松过。
比如,为了完成一次简单的旅行或者出差规划,你需要在购票APP、日历、地图、以及微信之间反复横跳。
复制、粘贴、切屏、分屏……
这些年,我们的生活并没有因为手机多一个能写诗作曲的AI聊天机器人,而发生什么变化。
为什么?
当然,无论是写代码,还是自动化,以及创意生成,我毫不怀疑AI在生产力方面的变革会改变世界。只是,在当下大家真的累了,也对百模大战麻了,需要有用的产品站出来。
特别是AI手机,它的尽头,一定是服务用户,服务那些具体的人。
华为在手机阵营当中是在不断反思这种怪象的。
比如这代华为Mate 80系列,它确实做了很多真的对具体的人真正有用的东西。
它没有去卷云侧纯粹的军备竞赛,而是选择解决移动互联网时代最大的痛点:应用孤岛林立,用户需要在不同App间频繁跳转的低效交互。
这就有了Mate 80系列所搭载的HarmonyOS 6首发的A2A(Agent to Agent)系统级AI能力。
在这里,我们不能忽视承载这一能力的底座。Mate 80首发搭载的鸿蒙6,不仅实现了从鸿蒙5到鸿蒙6的代际跨越,更是鸿蒙生态经历一年飞速成长后,从 “能用” 到 “全面好用” 的里程碑。
如今鸿蒙原生应用与元服务已超30万,适配度超过98%,这是一份中国千万生态开发者极限突围交出的答卷。正是因为有了这样成熟、独立且互联的操作系统土壤,华为才能跳出安卓的限制,长出完全不同的AI果实。

所以,这次的AI升级就不再是个单纯的语音助手升级,更进一步,从人机交互变成人与智能体交互。
通俗点说,以前的手机系统像个房东,把房间租给各个APP,但APP之间老死不相往来,门窗紧锁。
但是今天,Mate 80把这些墙打通了。
举个具体的例子:要做个PPT,过去你需要打开浏览器搜索资料,切换到新闻App找资讯,再打开文档粘贴整理,最后还得打开Office软件。这个过程需要手敲很久,又心累又费劲,非常窒息。
而在Mate 80上,小艺可以作为“主智能体”,能自主调度120多种对接工具和三方“子智能体”进行协作。这时你只需一句话,小艺自己拆解任务,调度搜索、资讯、文档等应用。短时间内,它不仅能生成图文并茂、分章节的报告,还能自动生成PPT并将结果保存到本地。
这才是AI本来的样子:不需要让人学习怎么用复杂的工具,直接让工具自己来服务用户。
为什么只有华为能做到?
很多人会问,别的厂商目前为什么不做A2A?
对于安卓手机厂商来说,本质上是在上游的地基上盖房子。
而华为的特殊性在于,它掌握了从硬件底层芯片到软件底层的完整控制权。
HarmonyOS 6之所以能实现跨应用的调度,是因为它制定了一套新的规则,让原本彼此不相往来的APP开放,汇聚一起。
而且,除了打通APP的墙,Mate 80还打通了设备的墙。
基于鸿蒙的分布式特性,AI的智慧不再局限于你手中的屏幕。在Mate 80的演示中,我们看到了“泛在智能”的雏形:你在开车时的一个灵感,告诉车机小艺,它不仅能听懂,还能无缝指挥你口袋里的手机记录下来,甚至回家后直接同步到平板上继续编辑。
在这里,AI变成了一种像空气一样的存在,它跟随着人走,而不是被困在某一台设备里。能实现这个,也就意味着,在华为体系内,AI并不局限于单一设备,它能通过鸿蒙分布式软总线,让最合适的设备在最合适的位置做出响应。
此外,这次Mate 80的小艺智能体还在情绪感知上实现了突破,它能识别11类情绪,在不同场景下提供拟人化的交互与关怀。让科技真正有了温度,而不仅仅是冷冰冰的工具。

现在来看,Mate 80系列的A2A能力,实际上就是定义了AI时代手机操作系统的新标准。
它引领了这个行业从“功能机”、“智能机”正式向一个新的形态跨越。
回想过去20年,App生态虽然丰富,但也规训了我们——我们习惯了寻找图标、点击按钮、输入关键词。这种基于GUI的交互,本质上是人适应机器。
但Mate 80展示的A2A,正在让机器适应人,LLM摧枯拉朽一样干掉了这些软件之间的壁垒。
也就是说,你不要再去纠结我该点哪个菜单、我该用哪个软件,你只需要表达你自己所想。
最终,那些滥用GUI、隐藏入口、迫使我们在各个APP辗转腾挪用手机的日子,终会翻篇。
其实你看看华为在Mate 80上的发布,不难发现,它们在本质上不认同在今天的GUI中硬塞进AI的方式,而是提供完全与众不同的、更自然的和机器智能交互的方式。
这正是Agent to Agent的意义所在。
大模型真正的价值,从不在于token长度,不在于RAG能力,也不在于个人矢量数据库能记住你多年前干了什么事情,说了什么话。一个经过良好训练的,真正通过训练数据获得“智能”的Agent,会让你瞬间理解何为AI。
最终,消费者也会明确做出选择,答案也很简单,在智商相对在线、功能相对实用的Agent面前,哪怕有人布置10层模型,干1000个矢量数据库,turning我100年的数据,我也不会选择和后者费劲。LLM 的核心能力,还是有用的“智能水平”,别的都是扯淡。
在此方面,华为无比清醒。
我们到底如何看待AI ?
用GUI时代的方式和他打交道是否最优?
AI为人类创造价值的方式,到底应该是指令〉反馈的命令,还是欲望〉结果的委托?
这个问题难有答案。

但从Mate 80来看,华为不愿建空中楼阁,讲的还是一个传统智能手机升级AI的故事。
一方面GUI的本质确实是对象和指令,但是目前人机交互中确定性的交互意图始终是占大部分的,GUI目前肯定比回合制效率更高,但是未来它终究会过时。
我们需要AI Agent,找到对象发布指令是AI Agent的事。
只有AI Agent,才能让人和AI之间的交流,从对象和指令变成欲望和结果。
这让我想到了干掉命令行的图形界面的由来——它源于施乐的成果:一台不需要输入命令行的有可视化图形界面的电脑。乔布斯完整吸收了这套工业方案,并将图形界面的设计用在了日后的Macintosh上,盖茨要给Macintosh开发软件,也不再关注Dos,转进Windows。
自此,电脑才有了未来。
当年,GUI图形界面之于命令行的革命,是让电脑不再只是懂代码的人才会使用,任何一个普通人都能快速掌握它的基本操作,让复杂的交互变成简易的点击。
同样,LLM AI大模型把自然语言带给搜索引擎、带给语音助手、带给手机,那么这些东西的本质都会变得不同,用户将拥有提需求的能力,一切复杂、个性、细节的想法,都可以交给AI去做。
与之相比,传统的输入关键词然后自行搜寻查找结果,就和在Dos写命令没什么区别了。
现在,无论是我们看到复杂的办公写作场景中一句话调度搜索、资讯、文档,还是手机流转车机小艺接管应答进行备忘记录,它们本质就是一个需求,把它发给语音助手或者搜索引擎,它们是看不懂的。
但是能够处理自然语言的LLM AI大模型知道我要什么,它会执行我的要求。如果我自己来,也会这么操作,只不过要花很久。
这还是搜索吗?
好像也是,只不过它把搜索私有化了。
在此之前,OpenAI 提出了AI能力的5个阶段:
基础AI(Emerging AGI):语言处理,对话,汇总信息。
推理者(Reasoners):高级的逻辑推理和复杂问题解决能力。能学习细分领域专业知识。
代理(Agents):可以基于理解和推理来真正分布策划和执行任务。
创新者(Innovators):这个阶段的AI能够辅助发明创造。
组织者(Organizers):能够完成组织工作。管理和协调复杂的项目。
目前大量的通用AI智能最多都在第二个阶段,但只有来到第三阶段,普通人的生活才能发生真正意义上的天翻地覆的变化。
而这,恰恰就是华为在手机行业当中首发的Agent to Agent正在做的事情。
要记住,AI Agent的定义是一个能够自主感知需求、理解指令、跨应用完成任务的综合体。
尽管AI Agent和你见到的那些第三方AI应用都以语音助手作为交互接口,但二者差异巨大。
你见到的那些第三方通用AI应用,并不具备主动感知的能力,无法主动探索、学习用户习惯和需求;背后也缺乏能力底座作为支撑,无法分解复杂任务,开展跨应用操作。
现在,华为选择的路线是,将AI能力渗透到整个操作系统底层,赋能终端,AI能力可无缝集成到日常的应用场景中,通过语音助手作为用户交互接口,灵活调动底层AI能力。
简而言之,AI Agent一定是未来大模型与终端用户的核心交互介质。它必将走向多模态的发展路径,定义智能终端交互的下一幕。
以上。
更新时间:2025-11-26
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号