🗒️端侧AI:投资人应真正关心的3个被忽略的问题
type
status
date
slug
summary
tags
category
icon
password
当谷歌在Pixel 10上演示“实时AI抠图”功能,以及苹果预告将在2025秋季发布会推出“重新定义的AI手机”时,从供应链传出的每一个风声,到华尔街连夜上调的出货量预测,一个近乎完美的剧本已经写好
一个由端侧AI驱动的、史诗级的消费电子“超级升级周期”,即将到来。
但当市场的喧嚣散去,一个更冷静、也更致命的问题浮现出来:当一个机会变得如此确定无疑,如果所有人都在谈论端侧AI、所有芯片财报都在重复“On-Device AI”、所有品牌都在预告“革命性体验”,它会不会已经变成了一个“共识陷阱”?
共识告诉你: 硬件环节确定性最高,是肉眼可见的红利。这个逻辑非常清晰。高通的骁龙8 Gen 3集成了Hexagon NPU,AI性能提升98%;联发科的天玑9300号称拥有330亿参数大模型处理能力;苹果的A17 Pro神经引擎速度翻倍。

这场算力军备竞赛,直接体现在了产业链的财报上:瑞芯微、恒玄科技等公司的业绩增长曲线,陡峭得让人心动。这块蜜糖,真实而甜美。但这会是常态吗?
你需要追问的第一个非共识是:这场“算力内卷”的尽头是什么?我们都经历过PC时代的CPU主频大战,和智能手机早期的核战。历史一再证明,当硬件性能超越了主流应用的需求,就会出现“性能过剩”,硬件溢价随之消失,行业进入残酷的存量搏杀。
今天手机NPU算力从50 TOPS卷到100 TOPS,除了让AI修图更快零点几秒,对绝大多数用户的体验改善,是否正在边际递减?一旦体验改善的曲线被算力增长的曲线追上,高昂的硬件溢价还能维持多久?
第二个更致命的问题是:谁在定义“有效算力”?让我们回顾一下NVIDIA是如何封神的。它的护城河,从来都不是GPU那块芯片本身,而是CUDA——那个让开发者欲罢不能的软件开发生态。CUDA用十余年的时间,统一了AI开发的“语言”,让数百万开发者为NVIDIA的硬件“锁定”。真正的护城河,不是参数表上那个冷冰冰的TOPS数字,而是能让开发者低成本、高性能地将算法跑起来的、充满活力的软件生态。

最后,别忘了手机之外的广阔战场。在智能汽车领域,Ambarella、瑞萨电子这类厂商,正通过高度定制化的AI视觉芯片(ASIC)抢占市场,它们不追求通用算力,而是在特定场景(如ADAS)下把能效比做到极致。这种“专用化”的降维打击,是否会对手机芯片厂商“一芯多用”的平台化策略构成威胁?硬件的战争,上半场是参数,下半场是生态。当你还在为那20%的溢价欢呼时,真正聪明的钱,已经在思考那个未来的生态霸主会是谁。
共识告诉你: 模型轻量化技术,是让大模型在终端设备运行的关键。没错。通过模型剪枝、量化、知识蒸馏等一系列“手术”,百亿参数的模型可以被压缩到原来的十分之一,同时保持可接受的性能。我们已经看到了Google的Gemini Nano被塞进Pixel手机,Meta的Llama 3也推出了适合端侧运行的小参数版本。

但这个过程,远比听上去要复杂。第一个被忽略的现实是:目前的模型压缩,很大程度上还是个“手工作坊”。它高度依赖顶尖AI科学家和工程师的经验、直觉和反复试错,俗称“炼丹”。这个过程成本高昂、周期漫长,且结果难以保证。这极大地限制了端侧AI应用的创新速度和普及广度。真正的行业爆发点,在于“自动化模型压缩”(AutoML for Compression)工具链的成熟。
想象一下,开发者不再需要是算法专家,只需将自己的大模型上传到一个平台,平台就能自动尝试数千种压缩方案,并找到那个在特定硬件上(比如某款手机芯片)性能和精度的最佳平衡点。这才是“工业化”的革命。一些嗅觉敏锐的初创公司,如Deci AI(被英伟达收购)、Neural Magic(被 RedHat收购),已经在尝试将这个过程产品化。这才是AI时代的未来,他们不生产模型,但他们让所有模型都能更便宜、更高效地运行在你的设备上。第二个深水区,是开源与闭源的路线之争。以llama.cpp为代表的开源社区,用惊人的速度,让各种开源大模型在Mac、PC甚至手机上跑了起来,极大推动了技术的普及。

但另一边,苹果和谷歌则在自己的操作系统里,内置了高度优化的、不对外的模型和推理引擎。这像极了移动互联网的开端。未来,是安卓当年对iOS的“开放战胜封闭”重演,让百花齐放的开源方案占领市场?还是巨头凭借软硬一体的极致体验和隐私保护,牢牢守住高端生态位,赚取最高的利润?
这两种路径,指向了完全不同的产业链投资机会。最后,是数据的“隐形战争”。 轻量化后的模型,性能或多或少会有损失。如何弥补?答案是“端侧微调”(On-device Fine-tuning)。利用你在设备上的个人数据,让模型变得更懂你。但这又引出了终极难题:如何在利用数据的同时,绝对保护用户隐私?联邦学习(Federated Learning)等技术虽然被寄予厚望,但成熟度依然面临挑战。谁能率先解决“自动化工具链”、“生态路线”和“隐私数据”这三个问题,谁就掌握了端侧AI软件的“命脉”。
共识告诉你: 手机、汽车、IoT是三大落地场景,前景无限。
这当然是对的。但“场景”这个词,最容易滋生泡沫。
第一个需要警惕的陷阱,就是“为了AI而AI”的功能堆砌。
还记得之前的Humane AI Pin和Rabbit R1吗?它们被誉为“后智能手机时代”的硬件,但上市后的市场反应却相当冷淡。

为什么?因为它们没有找到一个无可替代的“杀手级应用”。用户不会为炫酷的技术概念买单,只会为它实实在在解决的问题付费。
现在手机上的AI消除路人、AI生成壁纸,汽车里的语音助手,是很好,但它们是能让你下定决心多花2000块钱的理由吗?恐怕还不够。
第二个需要建立的认知框架是:“杀手级应用”的三个演进层次。
层次1 - 增强(Co-pilot): 这是目前的主流。无论是帮你润色邮件,还是实时翻译,AI的角色是你的“副驾驶”,提升现有任务的效率。这个层次的应用价值在于“更好”,而非“从无到有”。
层次2 - 代理(Agent): 这才是未来的趋势。当你能对手机说,“帮我订一张明晚去上海的机票,找一家徐家汇附近评分4.5以上的酒店,然后把行程发给我老婆”,而它能自主调用航旅App、地图App、微信来完成这一切时,革命才真正发生。这是对现有App孤岛生态的彻底颠覆,也是对操作系统入口的终极争夺。
层次3 - 预判(Guardian): 这是AI与个人数据深度结合的终极形态。它不再是被动响应,而是主动服务。比如你的智能手表在你心脏出现异常搏动前几小时发出预警,你的智能家居在你回家前就调节到你最舒服的状态。这个层次的应用,壁垒最高,用户粘性也最强。
由此,引出了那个价值万亿的终极拷问:价值最终归属于谁?
如果一个AI Agent帮你完成了所有事,那么,是这个Agent的开发者(比如一家新的超级App公司)赚走了大部分利润?还是提供底层能力和分发渠道的操作系统(苹果/谷歌)来“收税”?那些被它调用的传统App,又将沦为“管道”还是能分一杯羹?
这将是科技史上规模空前的一场“价值重分配”。投资端侧AI,你本质上是在对未来的人机交互形态,以及这场价值分配的最终格局下注。
Loading...