联发科 AI 放量:端侧是基本盘,云端 ASIC 是增长极
不久前的 4 月 30 日,联发科召开了线上法说会,公布了 2026 年第一季财务报告。财报显示,其中值得注意的是,智慧边缘平台营收环比增长 23%、同比增长 13%,占总营收比例升至 46%,几乎与手机业务平分秋色。相较于常规财务指标上的表现,更受关注的是联发科首个 AI 加速器 ASIC 项目确认将如期量产,2026 年营收贡献预估上调至约 20 亿美元,2027 年有望冲击数十亿美元规模,第二个同类型项目也定下了 2027 年底前量产的目标。
与此同时,联发科在数据中心底层技术的布局持续落地,9000 万美元投资 CPO 光引擎领先厂商 Ayar Labs,与微软研究院联合开发采用 MicroLED 光源的次世代主动式光纤电缆,高速 400G SerDes、64G 晶粒间互连、先进 3.5D 封装平台等关键技术研发也取得了扎实进展。

看完这场法说会,最直观的感受是:我们可能“错看了”联发科。他好像不只是我们熟悉的那个智能终端芯片的供应商,还是一家深入 AI 行业底层的基础设施提供商。
AI 产业深水区,基础设施是必争之地
联发科的业务布局,与全球 AI 产业正经历的变化和趋势更迭密不可分。
2026 年的 AI 行业,已经进入基础设施竞争的深水区。这一年来,Agentic AI 应用快速普及,正在彻底重构整个算力产业的需求结构:一方面,主动式智能体需要更强的端侧算力支撑,来满足低延迟、高隐私、长时在线的交互需求,边缘设备的潜在市场被持续放大;另一方面,AI 推理与训练任务的爆发式增长,带动全球数据中心基础设施投资规模持续攀升,摩根大通预测 2026 年全球数据中心资本开支增速将超过 50%,对应新增支出规模超 1500 亿美元。
在这样的产业背景下,芯片厂商的价值逻辑正在被彻底重估。过去,单一品类的芯片出货量、制程迭代速度是衡量企业价值的核心标尺,但如今,只停留在模型适配或单一环节算力供给的厂商,已经很难跟上 AI 产业的发展节奏。
AI 的竞争已经从单点技术突破,转向了端边云协同的全栈能力竞争,谁能构建起覆盖算力生产、传输、落地全流程的基础设施能力,谁才能在新一轮产业周期中占据主动。
现在看来,联发科也很早就洞察到了这一趋势,提前预判到 AI 产业的需求变迁,基于自身在芯片设计上的多年经验,沿着 AI 算力的流转路径,一步步完成了从终端到云端的全链条覆盖,把自己的增长曲线,绑定在了 AI 产业长期发展的核心赛道上。
多元布局,构建 AI 基础设施航母
其实要了解联发科在 AI 领域布局的某种变化,有一个很好的窗口,就是联发科每年举办的天玑开发者大会。刚好,5 月 13 日,天玑开发者大会 MMDC 2026 就将召开了,今年的大会以“全域芯智能体验新无界”为主题,聚焦“无处不在的智能体化新体验”。核心愿景直指跨端无缝流转的全域智能体化新体验。这已经映射出联发科正稳步构建覆盖手机、汽车、IoT 到数据中心的完整 AI 基础设施版图。
在手机端侧,联发科通过天玑 9500 旗舰芯片确立了端侧 AI 的新标杆。该平台采用了超性能和超能效双 NPU 设计,不仅提供了端侧最强的 AI 算力,更通过存算一体的超能效设计,让常驻的 AI 服务成为可能。

在 IoT 与边缘计算领域,联发科推出的全新 Genio 系列芯片平台,覆盖了从入门级到旗舰级的全场景需求,支持自主移动机器人、商用无人机、机器视觉等高端边缘 AI 场景,同时配套完整的开发框架,兼容主流 Linux 发行版与 ROS 2 机器人操作系统,大幅降低了边缘 AI 应用的开发门槛。

在汽车电子细分市场,联发科以“AI 定义汽车”(AIDV)的超前理念重构了智能座舱体验。天玑汽车座舱平台 C-X1,采用 3nm 制程,能够提供高达 400 TOPS 的全模态 AI 算力。同时该平台创新性地集成了 NVIDIA Blackwell GPU 与深度学习加速器,通过支持多进程服务(MPS),让多个大模型任务进程高效共享运算单元。这使得“主动式智能体座舱”成为现实,车辆能够根据外部环境和内部成员情绪并发提供各项服务,真正演变为第三空间智能体。

而在云端数据中心领域,联发科的突破更是有望改写行业格局。他们首个 AI 加速器 ASIC 项目,将在 2026 年如期量产,全年营收贡献预估上调至 20 亿美元。第二个 AI 加速器 ASIC 项目目标在 2027 年底前进入量产,同时还有多项数据中心计划进入最终洽谈阶段。按照联发科的规划,2027 年全球 AI ASIC 市场规模可达 700 亿至 800 亿美元,公司目标拿下 10% 至 15% 的市占率。
为了支撑云端业务的长期发展,联发科持续加大数据中心关键技术的投入,从硅光子、高速互连到先进封装,构建起完整的底层技术体系。
“端-边-云”全线推进 AI 基础设施,搅动 AI 行业格局
看到这相信大家已经能够确信,对于联发科来说,其业务范围已经深入到了 AI 行业基础设施层面,从现在起,当我们再谈到联发科,别再只以手机芯片公司的视角来看待,其正在成为切切实实的 AI 时代基础设施企业。并对终端产业、开发者,以及整个云端算力产业来说,都具备举足轻重的影响力。

首先是 AI 终端生态的底层逻辑。过去,不同品类的智能终端往往采用不同的算力平台,AI 能力的适配与跨端流转存在极高的壁垒,而联发科通过天玑手机平台、天玑 Auto 汽车平台、Genio IoT 平台的同源 AI 技术架构,实现了端侧 AI 能力的标准化与可迁移性,为 Agentic AI 时代的跨端全域智能体验打下了基础。对于终端厂商而言,联发科的全栈布局也提供了更多元的选择,无论是手机厂商的端侧大模型落地,车企的智能座舱开发,还是 IoT 厂商的边缘 AI 产品迭代,都能找到对应的成熟解决方案,大幅降低了 AI 产品的开发门槛与供应链风险。

同时,开发者生态的边界也正在被重新定义。从过去三年的 MDDC 大会,联发科持续迭代的开发工具链,正在为全球开发者构建一套覆盖全场景的 AI 开发体系。无论是面向手机端的 NeuroPilot SDK,面向汽车座舱的 MDAP 软件方案,还是面向 IoT 边缘场景的多系统兼容支持,开发者可以用一套统一的开发工具,实现 AI 应用在不同终端的快速部署与跨端适配,让更多开发者能参与到端侧 AI 应用的创新中来。
而对于云端算力市场,联发科的入局则正在改写行业的竞争格局。
此前,全球超大规模云厂商的 AI ASIC 订单大多集中在少数几家厂商手中,传统交钥匙模式下的成本溢价始终是云厂商的痛点。而联发科在 AI ASIC 领域的入局,将极大可能改变固有的局面。Counterpoint Research 预测,联发科有望在 2 年内实现 AI 服务器 ASIC 出货规模的 10 倍级增长,2028 年有望以 26% 的出货量占有率成为 AI ASIC 设计服务领域的头部厂商。
随着联发科的持续入局,云端算力基础设施的成本有望进一步下降,进而推动整个 AI 产业的普惠化发展。
结语
在这个算力需求呈现指数级爆发的时代,AI 已经演变为一项极其庞大、复杂且重资产的系统性工程。它考验的不再是单一节点的突击能力,而是对数据传输、芯片封装、端侧推理以及能效优化等全链路底层逻辑的深刻理解与资源整合能力。
联发科正在快速推进关于 AI 时代的宏大布局,用多元化、系统性的能力让公司穿越完整的产业周期,构建出覆盖 AI 计算全场景、全流程的生态影响力,在持续迭代的市场中,兑现其作为 AI 基础设施行业底座的价值。
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里查看更多信息!
AI 中文社