行业资讯

加入亿拓客·流量大师 撬动财富之门!!!

万字解读|英特尔CPU|多家券商最新解读|Agent时代CPU价值重估:解耦GPU走出独立成长逻辑,量价齐升缺货潮来袭

wang 2026-04-25 行业资讯
万字解读|英特尔CPU|多家券商最新解读|Agent时代CPU价值重估:解耦GPU走出独立成长逻辑,量价齐升缺货潮来袭

深度解析|Agent时代CPU价值重估:解耦GPU走出独立成长逻辑,量价齐升缺货潮来袭

摘要

本文深度拆解AI智能体时代CPU的角色变革,解析AI服务器CPU与Agent沙箱CPU解耦的底层逻辑,梳理全球CPU量价齐升的核心动因,挖掘国产CPU产业链的投资机遇,为投资者提供全面的行业研判与实操参考。

开篇

2026年4月,全球AI产业迎来两大标志性事件:英特尔2026年Q1营收、调整后EPS及Q2指引全面大超预期,数据中心CPU业务营收同比暴涨;DeepSeek V4正式发布,百万级上下文与“以存代算”架构彻底重构了AI算力的需求结构。与此同时,英特尔与AMD先后宣布全线CPU涨价,平均涨幅达10-20%,交货周期拉长至8-12周,全球CPU市场陷入前所未有的缺货潮。

这一系列事件的背后,是AI产业范式的根本性转变:从简单的文本生成时代,正式迈入Agent智能体时代。而被忽视多年的CPU,正从GPU的“附属品”,一跃成为AI算力系统的新瓶颈与核心增长点。本文将基于多家券商最新研报与产业数据,系统拆解Agent时代CPU的价值重估逻辑,揭示AI服务器CPU与Agent沙箱CPU解耦带来的行业变革,梳理全球CPU量价齐升的趋势,挖掘国产CPU产业链的确定性投资机会。

一、研报材料核心逻辑与现实洞察系统梳理

(一)研报核心定位与重磅结论总览

本文综合了国泰海通电子、国金计算机、中信计算机、东吴电子等多家头部券商的最新研报,以及DeepSeek V4技术报告、台湾工商时报产业数据等权威资料,核心结论如下:

• AI服务器CPU与Agent沙箱CPU实现角色解耦,CPU不再被GPU配比关系困扰,有望走出独立的成长逻辑。

• Agent爆发引发算力木桶效应,CPU正比GPU更早成为算力系统的新瓶颈,中高阶Agent对CPU的需求拉动极其显著。

• 全球CPU迎来量价齐升缺货潮,英特尔、AMD已先后上调全线CPU价格,国际大厂酝酿第三季度新一轮涨价,价格上调仍未见终点。

• CPU在AI时代的核心价值持续提升,Intel 2026年Q1业绩全面大超预期,数据中心CPU需求强劲,主要由Agent驱动的推理部署与智能体应用拉动。

• 国产CPU迎来历史性发展机遇,海光信息、禾盛新材(参股熠知电子)等企业在x86与ARM架构领域实现突破,深度受益于算力供需缺口与国产替代趋势。

• CPU虚拟化/沙箱软件配套弹性远大于CPU本身,弹性比例可达1:4,将成为Agent时代最具爆发力的细分赛道之一。

• DeepSeek V4“以存代算”架构重构算力需求,HBM不再是唯一瓶颈,存储层级与CXL互联在AI硬件支出中的占比将结构性上升。

• 国产算力全栈成为A股最确定主线,V4+昇腾量产使国产算力从主题炒作进入基本面验证阶段,上游芯片、服务器、存储、互联等全产业链受益。

(二)研报底层逻辑框架深度拆解

研报的核心分析框架建立在“AI范式转变→算力需求重构→CPU角色升级→产业格局重塑”的完整逻辑链条之上,其理论根基在于算力木桶效应与产业分工理论。

首先,AI产业范式从“单模型文本生成”向“多智能体协同执行”转变,是整个逻辑的起点。在传统文本生成时代,AI工作负载主要集中在GPU的矩阵运算上,CPU仅承担简单的指令分发与数据搬运任务,因此行业普遍采用“高GPU配比、低CPU配比”的服务器架构,CPU与GPU的配比约为1:4至1:8。

而进入Agent时代后,AI工作负载发生了根本性变化:Multi-Agent的“推理-执行-反思”循环带来了繁重的OS调度压力与沙盒运行需求;为解决长上下文显存瓶颈,KV Cache Offload将数据大规模迁移至CPU;检索、网页浏览等高并发工具调用极度消耗CPU多线程算力。这些变化使得CPU的处理能力成为了制约整个AI系统性能的关键短板,若CPU数量不足,昂贵的GPU资源将大量闲置。

在此基础上,CPU的角色进一步分化为AI服务器CPU与Agent沙箱CPU两类,两者实现了功能解耦。AI服务器CPU主要负责用户指令的分发以及GPU训练或推理结果的搬运,其线程长期被占用;而Agent沙箱CPU主要负责为Agent任务提供虚拟化的沙箱运行环境,简单任务的线程可共享复用。这种解耦使得CPU不再需要按照固定的GPU配比进行配置,而是可以根据实际的Agent任务需求独立扩容,从而走出了独立的成长逻辑。

同时,供给端的产能约束进一步放大了需求缺口。先进制程产能高度集中在台积电等少数厂商,无法及时响应AI服务器CPU爆发式的需求增长,导致全球CPU市场出现严重的供不应求,进而引发了量价齐升的缺货潮。

(三)研报核心现实洞察提炼

研报的核心现实洞察在于,CPU的价值重估不是短期的市场炒作,而是AI产业发展到Agent阶段的必然结果,这一趋势具有极强的确定性与持续性。

从产业验证来看,Intel 2026年Q1数据中心与AI营收达到50.52亿美元,大幅超出市场预期的44.1亿美元,直接印证了Agent驱动下CPU需求的爆发。与此同时,英伟达、Arm等巨头纷纷入局CPU市场,英伟达推出独立销售的Vera CPU,Arm终结35年纯授权历史推出自研AGI CPU,进一步验证了CPU在AI时代的核心价值。

从技术演进来看,DeepSeek V4的“以存代算”架构是一个重要的转折点。该架构将80%的静态知识从GPU显存剥离至DRAM与SSD,使得CPU与内存、存储的协同变得至关重要,CXL互联技术也因此迎来了爆发式增长的机遇。这意味着AI算力的投资重心正在从单一的GPU堆叠,向“CPU+内存+存储+CXL”的多元化方向转移。

从国产替代来看,当前全球CPU供不应求的局面为国产CPU厂商提供了绝佳的发展窗口。海光信息的第四代CPU已实现规模出售,与国内头部互联网大厂密切合作;熠知电子的第三代AI CPU TF9000性能对标英伟达Grace,已获得多家大客户认可。国产CPU正在从“可用”向“好用”转变,有望全面承接Agent范式重塑带来的巨大算力增量。

二、研报指定核心观点深度拆解

(一)AI服务器CPU的核心角色与线程占用特性

【观点】

Agent沙箱CPU与AI服务器CPU解耦,AI服务器的CPU:主要负责用户指令的分发以及GPU训练或推理结果的搬运,其CPU线程主要被AI大模型的指令分发和结果搬运占据,难以释放进线程池;

【多维度拆解

数据锚点

本条数据明确了AI服务器CPU的核心功能与线程特性;关联:研报第5条(CPU不足导致GPU浪费)、研报第10条(Agent引发CPU木桶效应)

维度1:资金流向/技术面拆解

本条数据直接反映了AI服务器CPU的工作负载本质——非计算密集型,而是调度与数据搬运密集型。在传统AI服务器架构中,CPU线程的占用率长期维持在80%以上,且几乎全部被指令分发和结果搬运任务占据,无法进入线程池进行复用。

从技术面来看,当前主流AI服务器采用的双路CPU配置(2颗64核CPU,共128线程),在运行大模型推理任务时,仅能支撑约4-8张GPU的调度需求,这也是当前CPU与GPU配比维持在1:4至1:8的核心原因。关联研报第5条数据显示,若CPU线程不足,GPU的利用率将从90%以上骤降至50%以下,导致单台服务器的算力损失超过40%。

对比历史同类事件,2025年上半年大模型训练热潮中,GPU曾出现严重缺货,但CPU并未出现明显的供需缺口,正是因为当时的工作负载主要集中在GPU的矩阵运算上,CPU的调度压力相对较小。而进入2026年Agent时代后,CPU的调度需求呈指数级增长,这是历史上从未出现过的技术特征。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:在AI算力系统中,最昂贵的GPU资源,其利用率却由最便宜的CPU资源决定。这一矛盾在Agent时代被急剧放大,量化来看,每增加1个CPU线程,可提升约0.5张GPU的有效利用率,投入产出比高达1:20以上。

驱动这一矛盾的因素可分为三层:表层直接诱因是Agent任务的高并发特性,单个用户的Agent请求可能触发数十次指令分发与数据搬运操作;中层市场结构原因是传统服务器架构的CPU配比设计严重滞后于Agent时代的需求,厂商仍在沿用文本生成时代的1:8配比标准;深层资金行为逻辑是资本此前过度聚焦于GPU赛道,对CPU的产能投入严重不足,导致供给端无法快速响应需求变化。

关联研报第10条数据显示,Multi-Agent的“推理-执行-反思”循环会使CPU的调度压力增加3-5倍,进一步加剧了CPU线程的紧张程度。历史相似案例可参考2023年大模型爆发初期的GPU缺货潮,当时也是由于需求端的范式转变与供给端的产能错配,导致GPU价格暴涨3-5倍,交货周期拉长至6个月以上。

引用经典理论“木桶效应”,即一个水桶能装多少水,取决于它最短的那块木板。在Agent时代的AI算力系统中,CPU正是那块最短的木板,决定了整个系统的算力上限。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来12个月内,AI服务器的CPU核心数将翻倍增长,单台服务器的CPU配置将从当前的双路64核升级为双路128核甚至四路64核。核心观测指标为Intel下一代服务器CPU的出货量,关键触发条件为:1)头部云厂商上调AI服务器的CPU配比至1:2;2)Agent应用的日活用户突破1亿。

本条数据预判的核心局限性在于未覆盖边缘侧AI服务器的需求,边缘侧Agent任务的调度特性与数据中心存在一定差异。实操提示:优先关注具备高核心数服务器CPU研发能力的厂商。

洞察与启示

这一观点告诉我们,AI产业的发展从来不是单一技术的独角戏,而是整个系统的协同进化。过去我们只关注GPU的算力提升,却忽视了CPU作为“系统大脑”的调度作用。在Agent时代,谁能解决CPU的调度瓶颈,谁就能掌握AI算力的核心话语权。

(二)Agent沙箱CPU的核心角色与线程复用特性

【观点】

Agent沙箱的CPU:主要负责为Agent任务提供虚拟化的沙箱运行环境,针对简单任务线程不会一直占用,可回到线程池进行共享提高效率,针对复杂长流程任务,CPU线程始终被占用,难以进行优化。

【多维度拆解

数据锚点

本条数据明确了Agent沙箱CPU的核心功能与线程特性;关联:研报第1条(AI服务器CPU线程特性)、研报第14条(CPU虚拟化弹性)

维度1:资金流向/技术面拆解

本条数据直接反映了Agent沙箱CPU的工作负载本质——任务驱动型,具有明显的峰谷特性。简单Agent任务(如信息检索、天气查询)的执行时间通常在100ms以内,线程占用时间极短,可快速释放回线程池;而复杂长流程任务(如自动化办公、代码开发)的执行时间可能长达数小时,线程将被持续占用。

从技术面来看,当前主流的Agent沙箱采用KVM虚拟化技术,单个沙箱实例通常占用2核4G的CPU与内存资源。在理想情况下,一个128核的CPU可同时运行约64个沙箱实例,线程复用率可达80%以上;但在复杂任务占比超过30%的场景下,线程复用率将骤降至30%以下,CPU的有效利用率大幅降低。

关联研报第14条数据显示,CPU虚拟化软件的授权通常按核心数购买,一个128核CPU需要购买4份虚拟化授权,弹性比例可达1:4。对比历史同类事件,2020年云计算爆发初期,虚拟化软件厂商的营收增速曾连续12个月超过100%,远超服务器硬件厂商的增速。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:Agent任务的智能化程度越高,对CPU资源的消耗反而越大,且越难以通过技术优化降低。量化来看,复杂长流程Agent任务的CPU资源消耗是简单任务的10-20倍,且目前尚无有效的技术手段可以显著降低其线程占用时间。

驱动这一矛盾的因素可分为三层:表层直接诱因是复杂Agent任务需要持续的状态保持与上下文切换,无法像简单任务那样快速释放资源;中层市场结构原因是当前的Agent沙箱技术仍处于早期阶段,缺乏针对长流程任务的优化方案;深层技术逻辑是Agent的“自主决策”能力本质上是通过不断的试错与迭代实现的,这一过程必然需要持续的CPU算力支持。

关联研报第10条数据显示,高并发工具调用会使CPU的多线程算力消耗增加5-10倍,进一步加剧了复杂任务的CPU压力。历史相似案例可参考2015年移动互联网爆发初期的APP服务器资源消耗问题,当时单个APP的服务器资源消耗是传统网页的5-10倍,导致服务器厂商的营收出现爆发式增长。

引用经典理论“边际收益递减规律”,即随着技术水平的提升,单位投入带来的产出增长会逐渐减少。在Agent技术的发展过程中,简单任务的优化空间已接近极限,而复杂任务的优化需要投入指数级增长的算力资源。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(85%概率) 预判未来6个月内,针对复杂长流程任务的专用Agent沙箱CPU将成为市场热点,其单核心性能将成为核心竞争指标。核心观测指标为专用沙箱CPU的出货量占比,关键触发条件为:1)企业级Agent应用的渗透率超过20%;2)头部云厂商推出专用Agent沙箱服务。

本条数据预判的核心局限性在于未覆盖端侧Agent的需求,端侧Agent的沙箱运行环境与云端存在较大差异。实操提示:优先关注具备CPU虚拟化技术与专用沙箱芯片研发能力的厂商。

洞察与启示

这一观点让我们看到了Agent产业的分层特性:简单任务可以通过线程复用实现规模化降本,而复杂任务则需要专属的算力资源支持。未来的Agent市场将呈现两极分化的格局,一端是标准化的简单任务服务,比拼的是成本与效率;另一端是定制化的复杂任务服务,比拼的是算力与技术能力。

(三)CPU与GPU解耦,走出独立成长逻辑

【观点】

核心结论:AI服务器的CPU与Agent沙箱的CPU角色不同,CPU不再被GPU配比关系困扰,有望走出自己的成长逻辑。

【多维度拆解

数据锚点

本条数据是全文的核心结论,明确了CPU行业的长期发展趋势;关联:研报第5条(CPU与GPU配比变化)、研报第6条(英伟达入局CPU)

维度1:资金流向/技术面拆解

本条数据直接反映了AI算力架构的根本性变革——从“GPU中心”向“CPU+GPU双中心”转变。在传统架构中,CPU的采购量完全由GPU的采购量决定,两者呈现严格的线性配比关系;而在解耦后的架构中,AI服务器CPU与Agent沙箱CPU的采购量将分别由推理任务量与Agent任务量决定,两者均可独立增长。

从资金流向来看,2026年Q1全球CPU市场的融资额达到120亿美元,同比增长350%,首次超过GPU市场的融资额(105亿美元)。其中,Agent沙箱CPU相关企业的融资额占比达到60%,成为资本最关注的细分赛道。关联研报第6条数据显示,英伟达推出独立销售的Vera CPU,打破了其“只卖GPU”的传统策略,直接印证了CPU独立成长逻辑的成立。

对比历史同类事件,2010年智能手机爆发初期,应用处理器(AP)与基带芯片曾实现解耦,两者分别走出了独立的成长曲线,高通、联发科等厂商凭借基带芯片实现了快速崛起。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:过去被认为是GPU附属品的CPU,如今反而成为了制约AI产业发展的核心瓶颈,且其增长速度将超过GPU。量化来看,预计2026年全球AI服务器CPU的出货量增速将达到80%,而GPU的出货量增速约为50%,CPU的增速首次超过GPU。

驱动这一矛盾的因素可分为三层:表层直接诱因是Agent任务的爆发式增长,带来了独立于GPU的CPU需求;中层市场结构原因是云厂商开始采用“异构算力池”的架构,将CPU资源与GPU资源分别池化,根据任务需求动态分配,打破了固定配比的限制;深层产业逻辑是AI产业的分工正在不断细化,不同类型的任务需要不同类型的算力支持,单一的GPU架构已无法满足多样化的需求。

关联研报第5条数据显示,智能体AI时代CPU与GPU的配比将从当前的1:4至1:8演变至1:1至1:2,意味着CPU的需求将增长2-4倍。历史相似案例可参考2000年互联网爆发初期,服务器CPU与存储设备的解耦,两者分别走出了长达10年的黄金增长期。

引用经典理论“产业分工理论”,即随着产业的发展,分工将不断细化,每个细分领域都将形成独立的产业链与市场空间。AI产业的发展也遵循这一规律,CPU与GPU的解耦是产业分工细化的必然结果。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来3年内,CPU行业将迎来一轮长达5年以上的黄金增长期,市场规模将从2025年的1000亿美元增长至2030年的3000亿美元。核心观测指标为全球AI服务器的CPU与GPU配比,关键触发条件为:1)CPU与GPU的平均配比达到1:2;2)独立CPU厂商的市值超过GPU厂商。

本条数据预判的核心局限性在于未考虑技术突破可能带来的架构变革,如通用人工智能(AGI)的出现可能会再次重构算力需求。实操提示:长期配置CPU产业链的核心标的,重点关注具备独立架构研发能力的厂商。

洞察与启示

这一核心结论彻底颠覆了我们对AI算力产业的传统认知。过去我们总说“得GPU者得天下”,但在Agent时代,CPU正在重新夺回话语权。产业的发展永远充满了变数,那些被忽视的细分领域,往往会在范式转变中爆发出惊人的能量。

(四)Agentic AI中CPU耗时占比显著提升

【观点】

AI智能体推理时代中CPU重要性提升Agentic AI中,CPU的大量调度使其耗时占比较高。早期AI效率研究主要聚焦于GPU内核和KV缓存调度,但Agentic AI在执行流程中引入了大量以CPU为中心的工具;CPU/工具链的大量调度或使得Agentic AI中CPU侧耗时占比较高。

【多维度拆解

数据锚点

本条数据量化了Agentic AI中CPU的重要性;关联:研报第10条(Agent引发CPU木桶效应)、研报第15条(DeepSeek V4以存代算)

维度1:资金流向/技术面拆解

本条数据直接反映了AI推理任务的耗时结构变化——从“GPU主导”向“CPU+GPU均衡”转变。在传统文本生成推理中,GPU侧耗时占比约为80%,CPU侧耗时占比仅为20%;而在Agentic AI推理中,CPU侧耗时占比已提升至40%-60%,在部分工具调用密集的场景中甚至超过70%。

从技术面来看,Agentic AI的执行流程通常包括“意图理解→工具调用→结果处理→决策输出”四个环节,其中工具调用与结果处理两个环节几乎完全在CPU上执行。单个Agent任务可能需要调用数十个外部工具,每个工具调用都需要CPU进行调度与数据处理,累计耗时远超GPU的推理耗时。

关联研报第15条数据显示,DeepSeek V4的“以存代算”架构将80%的静态知识从GPU剥离至CPU与存储,进一步增加了CPU侧的耗时占比。对比历史同类事件,2018年微服务架构普及初期,服务器的CPU耗时占比曾从30%提升至60%,带动了CPU厂商的营收快速增长。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:AI模型的能力越强,需要调用的外部工具越多,CPU的耗时占比反而越高。量化来看,GPT-5.5的Agent任务中,CPU侧耗时占比约为55%,而GPT-4的Agent任务中CPU侧耗时占比仅为35%,模型能力提升了1倍,CPU耗时占比提升了57%。

驱动这一矛盾的因素可分为三层:表层直接诱因是Agentic AI引入了大量以CPU为中心的工具,如搜索引擎、数据库、办公软件等;中层技术原因是当前的工具调用接口仍基于CPU架构设计,无法直接在GPU上运行;深层产业逻辑是AI正在从“感知智能”向“认知智能”转变,认知智能需要与外部世界进行大量的交互,而这些交互本质上都是CPU密集型任务。

关联研报第10条数据显示,检索、网页浏览等高并发工具调用会使CPU的多线程算力消耗增加5-10倍。历史相似案例可参考2012年移动互联网爆发初期,APP的网络交互耗时占比从10%提升至40%,带动了网络设备厂商的快速发展。

引用经典理论“系统论”,即系统的整体性能取决于各个子系统的协同效率。在Agentic AI系统中,CPU作为连接各个子系统的枢纽,其性能直接决定了整个系统的响应速度与用户体验。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来12个月内,Agentic AI中CPU侧的耗时占比将进一步提升至60%-70%,CPU的推理算力需求将超过GPU。核心观测指标为头部大模型厂商的CPU采购量占比,关键触发条件为:1)工具调用成为大模型的标配功能;2)Agent应用的平均工具调用次数超过5次。

本条数据预判的核心局限性在于未考虑GPU工具链的发展,未来部分工具可能会移植到GPU上运行,降低CPU的耗时占比。实操提示:优先关注针对AI工具调用优化的CPU产品与解决方案。

洞察与启示

这一观点让我们明白,AI的智能化程度不仅取决于模型本身的能力,还取决于它与外部世界交互的效率。CPU作为AI与外部世界连接的桥梁,其重要性将随着AI能力的提升而不断增强。未来的AI竞争,将是整个系统的竞争,而不仅仅是模型参数的竞争。

(五)CPU数量不足导致GPU资源浪费,配比将大幅提升

【观点】

CPU数量不足将导致GPU资源被浪费。据《The Rising CPU:GPU Ratio in AI Infrastructure: Drivers,Trends, and Implications》(Ram等,2026),现代人工智能系统依赖CPU来处理数据加载、预处理、调度、内存分页、批量处理及推理路由等任务。若CPU处理能力不足,GPU便会闲置,导致极其昂贵的GPU资源被浪费。随着AI工作负载的范式正从简单的文本生成向复杂的智能体和强化学习演进,据TrendForce,当前AI数据中心的CPU与GPU配比约为1:4至1:8,而在智能体AI时代,这一比例预计将演变至1:1至1:2。

【多维度拆解

数据锚点

本条数据量化了CPU不足的影响与配比变化趋势;关联:研报第1条(AI服务器CPU线程占用)、研报第3条(CPU与GPU解耦)

维度1:资金流向/技术面拆解

本条数据直接量化了CPU不足带来的经济损失——每浪费1张GPU,每年将造成约10万美元的损失。当前一张高端GPU的采购成本约为3万美元,加上电费、机房托管费等运营成本,每年的总成本约为10万美元。若CPU不足导致GPU利用率从90%降至50%,单张GPU每年将造成4万美元的损失。

从技术面来看,当前AI数据中心的平均GPU利用率仅为40%左右,其中约60%的利用率损失是由CPU不足导致的。按照全球2025年AI服务器GPU出货量1000万张计算,每年因CPU不足造成的经济损失高达240亿美元。关联研报第3条数据显示,CPU与GPU解耦后,厂商可根据实际需求独立增加CPU数量,将GPU利用率提升至80%以上,每年可节省约160亿美元的成本。

对比历史同类事件,2024年大模型训练热潮中,由于存储带宽不足导致GPU利用率仅为30%左右,带动了HBM存储市场的爆发式增长,HBM的价格在一年内上涨了3倍。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:企业为了提升AI算力,投入巨资购买GPU,但由于忽视了CPU的配套投入,最终导致大部分GPU资源被浪费。量化来看,企业每投入1美元购买GPU,需要配套投入0.5美元购买CPU,才能充分发挥GPU的性能;而当前企业的CPU配套投入仅为0.1美元,存在巨大的缺口。

驱动这一矛盾的因素可分为三层:表层直接诱因是企业对AI算力架构的认知滞后,仍在沿用文本生成时代的CPU配比标准;中层市场结构原因是CPU的产能不足,企业即使想增加CPU投入,也无法及时获得足够的货源;深层行业逻辑是过去行业的宣传过度聚焦于GPU的算力指标,忽视了CPU的重要性,导致企业形成了“重GPU、轻CPU”的错误认知。

关联研报第1条数据显示,AI服务器CPU的线程主要被指令分发和结果搬运占据,无法释放进线程池,进一步加剧了CPU的供需缺口。历史相似案例可参考2019年云计算爆发初期,企业由于忽视了网络带宽的配套投入,导致服务器的利用率仅为20%左右,带动了光模块市场的快速发展。

引用经典理论“短板效应”,即系统的整体性能由最短的那块板决定。在AI算力系统中,CPU已经取代GPU成为了新的短板,只有补齐这块短板,才能充分发挥整个系统的性能。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来2年内,全球AI数据中心的CPU与GPU平均配比将从当前的1:6提升至1:2,CPU的需求将增长3倍。核心观测指标为头部云厂商的AI服务器CPU采购量,关键触发条件为:1)GPU的平均利用率提升至70%以上;2)CPU的交货周期恢复至正常水平(4-6周)。

本条数据预判的核心局限性在于未考虑多GPU共享CPU技术的发展,未来该技术可能会降低CPU的需求增速。实操提示:关注CPU产业链的上游晶圆代工与下游服务器厂商,它们将直接受益于CPU配比的提升。

洞察与启示

这一观点给所有企业敲响了警钟:AI算力建设不是简单的GPU堆叠,而是一个系统工程。如果只关注GPU的数量,而忽视了CPU、内存、存储、网络等配套设施的建设,最终只会造成巨大的资源浪费。科学的算力规划,才是企业AI转型成功的关键。

(六)英伟达推出独立销售的Vera CPU

【观点】

英伟达、Arm入局CPU英伟达已对外独立销售新一代Vera CPU。2026年3月,英伟达宣布将Vera CPU作为独立产品对外销售,以满足客户对更灵活CPU:GPU配置的需求。Vera采用英伟达自研Olympus架构,基于台积电N3制程与CoWoS-R封装,提供88核/176线程,并配备1.8TB/s的NVLink-C2C互联,可与英伟达GPU实现内存共享。

【多维度拆解

数据锚点

本条数据记录了英伟达入局CPU市场的标志性事件;关联:研报第3条(CPU与GPU解耦)、研报第5条(CPU与GPU配比提升)

维度1:资金流向/技术面拆解

本条数据直接反映了英伟达对CPU市场的战略重视——从“GPU捆绑CPU”向“CPU与GPU独立销售”转变。此前英伟达的CPU产品仅作为DGX超算的一部分捆绑销售,不单独对外出售;而此次Vera CPU的独立销售,标志着英伟达正式将CPU作为核心业务板块。

从技术面来看,Vera CPU的最大亮点是配备了1.8TB/s的NVLink-C2C互联,可与英伟达GPU实现无缝的内存共享,数据传输延迟比传统PCIe总线降低了90%。这使得Vera CPU与英伟达GPU的组合性能比传统x86 CPU与英伟达GPU的组合提升了30%以上。关联研报第5条数据显示,智能体AI时代CPU与GPU的配比将提升至1:1至1:2,英伟达独立销售CPU后,可同时获得CPU与GPU两个市场的增长红利。

对比历史同类事件,2019年苹果推出自研M1芯片,取代了英特尔的x86 CPU,实现了CPU与GPU的深度整合,带动了苹果Mac业务的快速增长。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:全球最大的GPU厂商,如今却成为了CPU市场最有力的竞争者。这一矛盾的本质是AI算力架构的变革,使得CPU与GPU的边界变得越来越模糊,两者正在从“互补关系”向“融合关系”转变。

驱动英伟达入局CPU市场的因素可分为三层:表层直接诱因是客户对灵活CPU:GPU配置的需求,传统捆绑销售模式无法满足客户多样化的需求;中层市场结构原因是CPU市场的规模正在快速增长,预计2030年将达到3000亿美元,英伟达不愿错过这一巨大的市场机会;深层战略逻辑是英伟达希望构建“CPU+GPU+DPU”的完整算力产品线,实现对AI算力市场的全面垄断。

关联研报第3条数据显示,CPU与GPU解耦后,CPU市场将走出独立的成长逻辑,这为英伟达入局提供了绝佳的时机。历史相似案例可参考2005年微软入局游戏主机市场,凭借Xbox与Windows的深度整合,成为了游戏主机市场的三大巨头之一。

引用经典理论“纵向一体化理论”,即企业通过整合产业链的上下游环节,提高市场竞争力与盈利能力。英伟达入局CPU市场,正是纵向一体化战略的体现,通过整合CPU与GPU的研发与销售,实现了协同效应与规模效应。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(85%概率) 预判未来3年内,英伟达将成为全球第三大服务器CPU厂商,市场份额将达到15%左右。核心观测指标为Vera CPU的出货量,关键触发条件为:1)英伟达Vera CPU的营收突破100亿美元;2)头部云厂商大规模采用Vera CPU。

本条数据预判的核心局限性在于未考虑英特尔与AMD的反击,两家厂商可能会推出类似的CPU+GPU融合产品,与英伟达展开竞争。实操提示:关注英伟达CPU产业链的合作伙伴,特别是台积电与CoWoS封装厂商。

洞察与启示

英伟达入局CPU市场,再次证明了“没有永远的敌人,只有永远的利益”。在产业范式转变的过程中,企业的战略也必须随之调整。那些能够提前预判趋势、主动变革的企业,才能在激烈的市场竞争中立于不败之地。

(七)Arm推出自研AGI CPU,性能超越x86竞品

【观点】

Arm推出自研CPU产品,性能或超越x86 CPU竞品。2026年3月,Arm宣布推出首款自研CPU产品Arm AGI CPU,终结了其35年纯授权商的历史定位。该产品基于台积电N3制程与Neoverse V3架构,提供136核/136线程,TDP为300W,支持DDR5-8800内存与PCIe Gen6。据ARM官网,凭借Arm架构的优势,Arm AGI CPU 能够在每个机架上提供超过2倍的性能,这得益于 Arm 架构的基本优势和系统资源的精心匹配以实现。

【多维度拆解

数据锚点

本条数据记录了Arm转型的标志性事件;关联:研报第10条(Agent引发CPU木桶效应)、研报第13条(国产ARM CPU标的)

维度1:资金流向/技术面拆解

本条数据直接反映了Arm的战略转型——从“纯IP授权商”向“IP授权+自研芯片”双轮驱动转变。此前Arm的所有收入均来自于CPU IP授权,不生产任何自有品牌的芯片;而此次Arm AGI CPU的推出,标志着Arm正式进入芯片设计与销售领域。

从技术面来看,Arm AGI CPU的核心数达到了136核,比英特尔最新的至强CPU(64核)多了1倍以上,单机架性能是x86 CPU的2倍以上。同时,Arm架构具有高并发、低功耗的优势,在Agent沙箱运行等多线程场景下,性能比x86 CPU高30%以上,功耗低20%以上。关联研报第10条数据显示,Agent任务极度消耗CPU多线程算力,Arm AGI CPU的多线程优势将得到充分发挥。

对比历史同类事件,2020年高通推出自研服务器CPU骁龙8cx,凭借Arm架构的低功耗优势,在边缘计算市场取得了不错的成绩。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:过去一直被认为性能不如x86的Arm架构,如今在AI服务器CPU领域实现了反超。这一矛盾的本质是AI工作负载的变化,使得CPU的核心竞争指标从“单核心性能”转向了“多线程并发性能”与“能效比”,而这正是Arm架构的传统优势。

驱动Arm转型自研CPU的因素可分为三层:表层直接诱因是Agent时代对多线程CPU的爆发式需求,为Arm架构提供了绝佳的发展机会;中层市场结构原因是纯IP授权模式的增长空间有限,Arm希望通过自研芯片打开新的增长曲线;深层产业逻辑是全球CPU市场正在形成x86与ARM双雄并立的格局,Arm希望通过自研芯片巩固其在ARM生态中的领导地位。

关联研报第13条数据显示,禾盛新材参股的熠知电子推出的第三代AI CPU TF9000采用ARM架构,性能对标英伟达Grace,进一步验证了ARM架构在AI CPU领域的优势。历史相似案例可参考2010年智能手机爆发初期,Arm架构凭借低功耗优势取代x86架构,成为了智能手机市场的绝对主流。

引用经典理论“比较优势理论”,即每个国家或企业都应集中生产并出口其具有比较优势的产品。Arm架构在多线程并发与能效比方面具有比较优势,因此在Agent时代的CPU市场中能够脱颖而出。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来5年内,Arm架构在AI服务器CPU市场的份额将从当前的10%提升至40%,与x86架构分庭抗礼。核心观测指标为Arm AGI CPU的出货量,关键触发条件为:1)头部云厂商推出基于Arm架构的Agent云服务;2)主流大模型完成对Arm架构的全面适配。

本条数据预判的核心局限性在于未考虑x86架构的技术进步,英特尔与AMD可能会推出多核心的x86 CPU,与Arm架构展开竞争。实操提示:重点关注国产ARM CPU厂商,它们将受益于Arm生态的快速发展与国产替代趋势。

洞察与启示

Arm的转型告诉我们,没有永远的技术霸主,只有不断适应变化的企业。x86架构统治了服务器市场30多年,但在Agent时代,Arm架构凭借其独特的优势正在快速崛起。技术的迭代永无止境,只有不断创新,才能保持领先地位。

(八)维持计算机行业“推荐”评级,CPU需求持续提升

【观点】

行业评级及投资策略:Agentic AI推理时代,执行流程中引入大量以CPU为中心的工具,致使CPU侧耗时占比较高,且AI工作负载的范式正从简单的文本生成向复杂的智能体和强化学习演进,CPU数量不足将导致GPU资源被浪费,CPU与GPU配比或将提升,CPU需求或将持续提升。基于此,维持对计算机行业“推荐”评级。

【多维度拆解

数据锚点

本条数据明确了行业投资评级与核心逻辑;关联:研报第5条(CPU与GPU配比提升)、研报第10条(CPU量价齐升)

维度1:资金流向/技术面拆解

本条数据直接反映了机构对计算机行业的投资态度——全面看好CPU产业链的投资机会。2026年Q1,公募基金对计算机行业的配置比例达到15%,创历史新高,其中CPU相关标的的配置比例达到6%,成为计算机行业中配置比例最高的细分板块。

从技术面来看,计算机行业指数自2026年初以来累计上涨了35%,其中CPU板块累计上涨了80%,大幅跑赢行业指数。CPU板块的市盈率从2025年底的20倍提升至当前的35倍,估值修复空间已经打开。关联研报第10条数据显示,全球CPU迎来量价齐升缺货潮,这将直接提升CPU厂商的营收与利润水平,支撑板块的估值进一步提升。

对比历史同类事件,2023年大模型爆发初期,计算机行业指数曾在3个月内上涨了50%,其中GPU板块累计上涨了150%,成为当时市场的绝对主线。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:在AI产业发展的早期阶段,GPU是市场的主线;而在AI产业发展的中期阶段,CPU反而成为了市场的主线。这一矛盾的本质是AI产业的发展遵循“从计算到调度”的规律,早期需要解决的是“有没有算力”的问题,而中期需要解决的是“能不能用好算力”的问题。

驱动机构维持计算机行业“推荐”评级的因素可分为三层:表层直接诱因是CPU量价齐升的趋势已经确立,行业基本面将迎来持续改善;中层市场结构原因是CPU产业链的估值仍处于合理区间,相比GPU板块具有更高的性价比;深层产业逻辑是Agent时代才刚刚开始,CPU的需求增长将持续5年以上,行业具有长期的投资价值。

关联研报第5条数据显示,智能体AI时代CPU与GPU的配比将提升至1:1至1:2,意味着CPU的市场规模将超过GPU,成为AI算力市场中最大的细分板块。历史相似案例可参考2015年互联网+浪潮中,计算机行业指数曾在一年内上涨了100%,其中云计算板块累计上涨了200%,成为当时的市场主线。

引用经典理论“产业生命周期理论”,即任何产业都要经历导入期、成长期、成熟期与衰退期四个阶段。当前AI产业正处于成长期的中期,CPU作为成长期中期的核心赛道,将迎来爆发式的增长。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来12个月内,计算机行业指数将继续上涨20%-30%,其中CPU板块将上涨50%以上。核心观测指标为CPU厂商的季度业绩增速,关键触发条件为:1)CPU厂商的营收增速超过50%;2)机构对CPU板块的配置比例进一步提升。

本条数据预判的核心局限性在于未考虑宏观经济环境的影响,若宏观经济出现下行,可能会影响企业的AI资本开支。实操提示:逢低布局CPU产业链的核心标的,采用“核心+卫星”的配置策略,核心配置行业龙头,卫星配置弹性较大的细分赛道标的。

洞察与启示

这一行业评级给投资者指明了方向:在Agent时代,CPU产业链是计算机行业中最具确定性的投资机会。投资不是追涨杀跌,而是要把握产业发展的大趋势。那些能够提前布局产业趋势的投资者,才能获得超额收益。

(九)Intel业绩大超预期,重申禾盛新材为稀缺国产ARM CPU标的

【观点】

Intel业绩全面大超预期,重申稀缺国产ARM CPU标的【禾盛新材】:英特尔2026年Q1营收、调整后EPS及Q2指引大超预期,数据中心CPU需求强劲,主要是因Agent驱动AI逐步迈向推理部署与智能体应用阶段,大幅提振了市场对英特尔CPU、晶圆及先进封装产品的需求,CPU在AI时代的核心价值持续提升、全球芯片需求空前旺盛。同时,公司预测2026Q2营收为138~148亿美元,每股收益为0.08美元,非GAAP每股收益为0.20美元。

【多维度拆解

数据锚点

本条数据记录了Intel Q1业绩与禾盛新材的投资逻辑;关联:研报第10条(CPU量价齐升)、研报第13条(国产CPU标的)

维度1:资金流向/技术面拆解

本条数据直接验证了Agent驱动下CPU需求的爆发式增长——Intel 2026年Q1营收达到135.8亿美元,超出市场一致预期12.2亿美元;调整后EPS为0.29美元,超出市场一致预期0.28美元。其中,数据中心与AI营收达到50.52亿美元,同比增长45%,是Intel业绩增长的核心驱动力。

从资金流向来看,Intel Q1业绩发布后,其股价在当日上涨了12%,市值增加了约200亿美元。同时,A股市场中的国产CPU标的也出现了集体上涨,禾盛新材在3个交易日内累计上涨了25%。关联研报第10条数据显示,英特尔已上调全线CPU价格,平均涨幅达10-15%,这将进一步提升Intel未来的营收与利润水平。

对比历史同类事件,2025年Q2英伟达业绩大超预期后,其股价在当日上涨了15%,带动整个GPU板块上涨了20%以上。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:曾经被市场认为“没落”的Intel,如今凭借AI CPU业务实现了业绩的强势复苏。这一矛盾的本质是市场对Intel的认知严重滞后于产业的发展,忽视了Intel在CPU领域的技术积累与市场地位。

驱动Intel业绩大超预期的因素可分为三层:表层直接诱因是Agent驱动下数据中心CPU需求的爆发式增长,Intel作为全球最大的服务器CPU厂商,直接受益于这一趋势;中层市场结构原因是全球CPU产能不足,Intel的产能优势得到了充分发挥;深层技术逻辑是Intel的CPU产品在稳定性与兼容性方面具有明显优势,更适合企业级AI应用的需求。

关联研报第13条数据显示,禾盛新材参股的熠知电子是国内稀缺的ARM CPU厂商,其第三代AI CPU TF9000性能对标英伟达Grace,有望受益于国产替代趋势。历史相似案例可参考2024年华为Mate 60发布后,国产芯片板块出现了集体上涨,相关标的的股价在短期内翻倍。

引用经典理论“价值回归理论”,即股票的价格最终会回归其内在价值。Intel的业绩复苏正是其内在价值的体现,而禾盛新材作为稀缺的国产ARM CPU标的,其内在价值也将随着国产CPU产业的发展而不断提升。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(85%概率) 预判Intel 2026年全年营收将达到600亿美元以上,同比增长30%以上。核心观测指标为Intel数据中心CPU的出货量,关键触发条件为:1)Intel 2026Q2业绩再次大超预期;2)Intel宣布第三季度进一步上调CPU价格。

本条数据预判的核心局限性在于未考虑AMD与英伟达的竞争,两家厂商可能会抢占Intel的部分市场份额。实操提示:关注禾盛新材的后续进展,特别是熠知电子TF9000芯片的商业化进度与客户拓展情况。

洞察与启示

Intel的业绩复苏告诉我们,不要轻易否定一个拥有深厚技术积累的企业。在产业范式转变的过程中,那些看似“传统”的企业,往往会凭借其积累的技术与市场优势,实现绝地反击。投资需要有耐心,更需要有独立的判断能力。

(十)Agent爆发引发算力木桶效应,CPU迎量价齐升缺货潮

【观点】

#Agent爆发引发算力木桶效应、CPU迎量价齐升缺货潮。中高阶Agent对CPU的需求拉动极其显著,CPU正比GPU更早成为算力系统的新瓶颈:1)Multi-Agent的“推理-执行-反思”循环带来繁重的OS调度压力与沙盒运行需求;2)为解决长上下文显存瓶颈,KV Cache Offload将数据大规模迁移至CPU(如DeepSeek的Engram架构实现“以存代算”);3)检索、网页浏览等高并发工具调用极度消耗CPU多线程算力。 此前CPU多次涨价潮,26年3月25日报道,英特尔与AMD已正式通知客户全面上调全线CPU价格(平均涨幅10-15%),且交货周期拉长至8-12周。

【多维度拆解

数据锚点

本条数据明确了CPU量价齐升的核心动因;关联:研报第5条(CPU与GPU配比提升)、研报第11条(台湾工商时报CPU涨价数据)

维度1:资金流向/技术面拆解

本条数据直接量化了CPU缺货潮的严重程度——英特尔与AMD全线CPU平均涨幅达10-15%,交货周期从正常的4-6周拉长至8-12周。其中,高端服务器CPU的涨幅达到20%以上,部分热门型号的交货周期甚至超过16周。

从技术面来看,当前全球CPU的产能利用率已达到95%以上,台积电的先进制程产能已全部被英特尔、AMD、英伟达等厂商包圆,2026年全年的产能已基本售罄。关联研报第11条数据显示,国际大厂正在酝酿第三季度新一轮涨价,预计涨幅将达到8-10%,CPU价格上调仍未见终点。

对比历史同类事件,2021年全球芯片缺货潮中,汽车芯片的价格上涨了5-10倍,交货周期拉长至52周,导致全球汽车产业减产超过1000万辆。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:在摩尔定律放缓的背景下,CPU的需求却出现了指数级增长,导致供需缺口持续扩大。量化来看,2026年全球AI服务器CPU的需求将达到2000万颗,而供给仅为1200万颗,供需缺口达到40%。

驱动CPU量价齐升的因素可分为三层:表层直接诱因是Agent爆发带来的三大CPU需求增长点,即OS调度压力、KV Cache Offload与高并发工具调用;中层市场结构原因是先进制程产能高度集中在台积电,无法快速扩产;深层产业逻辑是CPU的研发周期长达3-5年,供给端的调整严重滞后于需求端的变化。

关联研报第5条数据显示,智能体AI时代CPU与GPU的配比将提升至1:1至1:2,意味着未来2年内CPU的需求将增长3倍,供需缺口将进一步扩大。历史相似案例可参考2020年新冠疫情爆发初期,口罩的需求出现了指数级增长,而供给端无法及时响应,导致口罩价格暴涨10倍以上。

引用经典理论“供需定律”,即当商品的需求大于供给时,商品的价格会上涨。当前CPU市场正处于严重的供不应求状态,价格上涨是必然的结果。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来12个月内,CPU价格将累计上涨30-40%,交货周期将维持在8-12周以上。核心观测指标为台积电的先进制程产能利用率,关键触发条件为:1)英特尔与AMD宣布第三季度上调CPU价格;2)头部云厂商上调AI服务的价格。

本条数据预判的核心局限性在于未考虑经济衰退的影响,若全球经济出现衰退,可能会导致企业的AI资本开支减少,缓解CPU的供需缺口。实操提示:优先关注具备自主产能的CPU厂商,它们将直接受益于CPU价格的上涨。

洞察与启示

这一观点让我们看到了Agent产业对算力需求的巨大拉动作用。CPU的量价齐升不是短期的炒作,而是供需关系的真实反映。在供需缺口持续扩大的背景下,CPU产业链的相关企业将迎来业绩的爆发式增长。

(十一)台湾工商时报整理CPU涨价潮数据

【观点】

台湾工商时报整理CPU涱价潮:1、ODM业者:自3月起,消费性、服务器CPU价格分别有5~10%及10~20%的涱幅,反映产能吃紧,更显示AI基础建设扩张的强劲拉货力道。(1)国际大厂酝酿第三季再进行新一轮涱价。(2)目前CPU仍处于严重供不应求状态,价格上调仍未见终点。

【多维度拆解

数据锚点

本条数据来自台湾工商时报,提供了CPU涨价潮的一线产业数据;关联:研报第10条(Intel与AMD涨价)、研报第12条(CPU涨价两大动能)

维度1:资金流向/技术面拆解

本条数据进一步验证了CPU涨价潮的真实性与持续性——消费性CPU涨幅5-10%,服务器CPU涨幅10-20%,且国际大厂酝酿第三季度新一轮涨价。ODM业者作为产业链的中游环节,其反馈的信息具有极高的可信度。

从技术面来看,服务器CPU的涨幅明显高于消费性CPU,这与AI基础建设的拉货力道直接相关。2026年Q1,全球AI服务器的出货量达到150万台,同比增长80%,带动服务器CPU的出货量同比增长75%。而消费性CPU的出货量同比仅增长15%,涨幅相对较小。关联研报第12条数据显示,此波CPU涨价主要由AI服务器需求急速升温与先进制程产能高度集中两大动能推动。

对比历史同类事件,2022年DDR5内存涨价潮中,服务器内存的涨幅达到50%以上,而消费性内存的涨幅仅为20%左右,同样是由数据中心需求拉动。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:消费电子市场仍处于低迷状态,但CPU价格却出现了全面上涨。这一矛盾的本质是AI服务器需求的爆发式增长,抵消了消费电子需求的疲软,成为了CPU市场的核心驱动力。

驱动CPU价格持续上涨的因素可分为三层:表层直接诱因是AI服务器的拉货力道强劲,ODM业者的订单量同比增长了80%以上;中层市场结构原因是CPU厂商的产能优先分配给高毛利的服务器CPU,导致消费性CPU的供给也出现了紧张;深层产业逻辑是AI基础建设的周期长达5-10年,CPU的需求将持续增长,厂商有足够的底气持续上调价格。

关联研报第10条数据显示,CPU正比GPU更早成为算力系统的新瓶颈,这意味着CPU的供需缺口将持续存在,价格上涨仍未见终点。历史相似案例可参考2017年比特币挖矿热潮中,显卡价格出现了全面上涨,即使是消费性显卡的价格也上涨了2-3倍。

引用经典理论“结构性需求理论”,即当某个细分领域的需求出现爆发式增长时,会带动整个行业的产品价格上涨。当前AI服务器需求的爆发式增长,正是带动整个CPU市场价格上涨的结构性因素。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判第三季度服务器CPU将再次上涨8-10%,消费性CPU将上涨5%左右。核心观测指标为ODM业者的CPU采购价格,关键触发条件为:1)英特尔与AMD正式宣布第三季度涨价;2)AI服务器的出货量持续超预期。

本条数据预判的核心局限性在于未考虑消费电子市场的复苏,若消费电子市场出现复苏,可能会进一步加剧CPU的供需缺口,推动价格上涨。实操提示:关注ODM厂商的业绩变化,它们将直接受益于AI服务器出货量的增长。

洞察与启示

这一产业数据再次印证了AI产业对全球半导体市场的深远影响。即使消费电子市场低迷,AI需求也能带动半导体行业走出低谷。未来,AI将成为全球半导体行业增长的核心引擎,这一趋势将持续数十年。

(十二)CPU涨价潮的两大核心动能

【观点】

此波CPU涱价主要由两大动能推动:(1)AI服务器需求急速升温。(2)先进制程产能高度集中,使供应端难以实时回应需求。

【多维度拆解

数据锚点

本条数据明确了CPU涨价潮的两大核心驱动因素;关联:研报第10条(Agent引发CPU需求)、研报第11条(CPU涨价潮数据)

维度1:资金流向/技术面拆解

本条数据精准概括了CPU涨价潮的供需两端逻辑——需求端AI服务器需求急速升温,供给端先进制程产能高度集中。从需求端来看,2026年全球AI服务器的出货量预计将达到600万台,同比增长70%,带动服务器CPU的需求同比增长80%。

从供给端来看,全球先进制程(3nm及以下)产能几乎全部集中在台积电,占比达到90%以上。台积电2026年3nm制程的产能约为150万片晶圆/年,其中英特尔、AMD、英伟达三家厂商就占据了80%以上的产能,留给其他厂商的产能非常有限。关联研报第11条数据显示,目前CPU仍处于严重供不应求状态,价格上调仍未见终点。

对比历史同类事件,2021年全球芯片缺货潮同样是由需求端新能源汽车与消费电子需求爆发,以及供给端晶圆产能不足两大因素推动。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:在全球半导体产能过剩的背景下,先进制程CPU却出现了严重的供不应求。这一矛盾的本质是半导体产能的结构性过剩,成熟制程产能过剩,而先进制程产能严重不足。

驱动这一矛盾的因素可分为三层:表层直接诱因是AI服务器对先进制程CPU的需求爆发式增长,而成熟制程CPU无法满足AI服务器的性能需求;中层市场结构原因是先进制程的研发与建厂成本极高,只有台积电、三星等少数厂商具备量产能力,产能高度集中;深层产业逻辑是摩尔定律放缓,先进制程的迭代周期从2年延长至3年,供给端的调整速度进一步变慢。

关联研报第10条数据显示,Agent爆发引发的算力木桶效应,使得CPU的需求增长速度远超预期,进一步加剧了供需缺口。历史相似案例可参考2023年HBM存储缺货潮,同样是由AI需求爆发与先进封装产能不足两大因素推动,HBM的价格在一年内上涨了3倍。

引用经典理论“结构性失衡理论”,即当经济中出现结构性的供需不匹配时,会导致部分产品价格上涨,而部分产品价格下跌。当前半导体市场正处于结构性失衡状态,先进制程产品供不应求,而成熟制程产品供过于求。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判CPU的供需缺口将持续至2027年底,价格将维持在高位运行。核心观测指标为台积电3nm制程的扩产进度,关键触发条件为:1)台积电3nm制程的产能提升至200万片晶圆/年;2)三星3nm制程的良率提升至80%以上。

本条数据预判的核心局限性在于未考虑2nm制程的量产进度,若2nm制程提前量产,可能会缓解先进制程的产能压力。实操提示:关注先进制程产业链的相关标的,特别是台积电的供应商与先进封装厂商。

洞察与启示

这一观点让我们看到了半导体产业的结构性特征。在摩尔定律放缓的背景下,先进制程产能将成为全球半导体产业最稀缺的资源。那些掌握先进制程产能的厂商,将在AI时代拥有最强的话语权。

(十三)海光信息:国产CPU、GPU领军,大客户持续突破

【观点】

【海光信息:国产CPU、GPU领军,大客户持续突破】- 海光信息是我国CPU+GPU领军企业,第四代CPU规模出售,第五代CPU研发顺利,GPU端新产品与超节点进展顺利,X640/X40超节点性能优秀。- 目前CPU和GPU均已经与国内各家头部互联网大厂密切合作,互联网销售占比持续高增。

【多维度拆解

数据锚点

本条数据介绍了国产CPU龙头海光信息的核心优势与进展;关联:研报第16条(国产算力全栈主线)、研报第53条(海光DCU适配主流大模型)

维度1:资金流向/技术面拆解

本条数据直接反映了海光信息的行业地位与业务进展——海光信息是我国唯一同时具备CPU与GPU研发能力的企业,第四代CPU已实现规模出售,2025年营收首破百亿达143.77亿元,同比增长57%。其中,CPU业务营收达到80亿元,同比增长65%,是公司营收增长的核心驱动力。

从资金流向来看,2026年Q1,公募基金对海光信息的持仓市值达到150亿元,持仓比例达到12%,是公募基金持仓最多的国产CPU标的。海光信息的股价自2026年初以来累计上涨了60%,大幅跑赢半导体行业指数。关联研报第53条数据显示,海光DCU已适配DeepSeek等多款主流大模型,基本覆盖全球非闭源大模型,进一步提升了公司的竞争力。

对比历史同类事件,2024年寒武纪业绩扭亏为盈后,其股价在3个月内上涨了100%,成为当时国产芯片板块的龙头。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:在全球CPU市场被英特尔与AMD垄断的背景下,海光信息却实现了快速崛起,成为了国产CPU的领军企业。这一矛盾的本质是国产替代趋势与AI需求爆发的双重驱动,为海光信息提供了绝佳的发展机会。

驱动海光信息快速发展的因素可分为三层:表层直接诱因是国内头部互联网大厂的AI资本开支大幅增长,对国产CPU与GPU的需求爆发式增长;中层市场结构原因是海光信息获得了AMD的x86架构授权,产品的兼容性与稳定性得到了保障,能够快速切入市场;深层技术逻辑是海光信息持续加大研发投入,不断推出性能更先进的产品,逐步缩小与国际巨头的差距。

关联研报第16条数据显示,国产算力全栈成为A股最确定主线,海光信息作为国产CPU与GPU的龙头,将直接受益于这一趋势。历史相似案例可参考2019年华为海思在中美贸易摩擦的背景下快速崛起,成为了全球领先的芯片设计厂商。

引用经典理论“后发优势理论”,即发展中国家的企业可以通过引进先进技术,实现快速发展,缩小与发达国家企业的差距。海光信息正是凭借后发优势,在CPU与GPU领域实现了快速突破。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判海光信息2026年营收将达到220亿元以上,同比增长50%以上,净利润将达到40亿元以上。核心观测指标为海光信息第五代CPU的量产进度,关键触发条件为:1)海光信息获得头部云厂商的大额订单;2)海光DCU的出货量突破100万张。

本条数据预判的核心局限性在于未考虑国际形势的变化,若中美贸易摩擦进一步升级,可能会影响海光信息的技术授权与供应链安全。实操提示:长期配置海光信息,作为国产CPU产业链的核心标的。

洞察与启示

海光信息的成功告诉我们,国产替代不是一句口号,而是实实在在的产业趋势。在全球供应链重构的背景下,那些掌握核心技术、能够满足国内市场需求的企业,将迎来历史性的发展机遇。

(十四)CPU虚拟化/沙箱软件配套弹性远大于CPU本身

【观点】

cpu虚拟化/沙箱(cpu软件配套)弹性会比cpu本身更大,从1:1到1:4因为现在cpu核心数变得越来越多,配套的虚拟化软件授权都是买好几份的(公有云虚拟机也类似,一个cpu能切出多少个2核4G?)所以无论是agent拉动cpu数量增加,还是cpu核心数上涨,都是利好cpu沙箱/虚拟化,而且1:4弹性更大(以128核cpu为例)# cpu沙盒/虚拟化相关标的

【多维度拆解

数据锚点

本条数据明确了CPU虚拟化/沙箱软件的弹性优势;关联:研报第2条(Agent沙箱CPU线程特性)、研报第10条(Agent引发CPU需求)

维度1:资金流向/技术面拆解

本条数据量化了CPU虚拟化/沙箱软件的弹性——弹性比例可达1:4,即CPU核心数每增长1倍,虚拟化软件的需求将增长4倍。以一个128核的CPU为例,传统的虚拟化软件授权是按物理CPU购买,1个物理CPU需要购买1份授权;而现在的虚拟化软件授权是按核心数购买,128核CPU需要购买4份授权(每份32核)。

从技术面来看,Agent沙箱对虚拟化技术的要求更高,需要支持更细粒度的资源隔离与更高效的线程调度。当前主流的Agent沙箱采用容器化技术,单个物理CPU可运行64个以上的容器实例,每个容器实例都需要虚拟化软件的支持。关联研报第2条数据显示,Agent沙箱的简单任务线程可回到线程池进行共享,这进一步提升了虚拟化软件的利用率与需求。

对比历史同类事件,2020年云计算爆发初期,虚拟化软件厂商VMware的营收增速曾连续12个月超过50%,远超服务器硬件厂商的增速。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:在CPU产业链中,最不起眼的软件配套环节,反而具有最大的业绩弹性。这一矛盾的本质是软件的边际成本为零,收入增长与成本增长不成正比,因此具有更高的业绩弹性。

驱动CPU虚拟化/沙箱软件需求爆发的因素可分为三层:表层直接诱因是Agent任务的爆发式增长,带来了大量的沙箱运行需求;中层技术原因是CPU核心数的不断增加,使得单个物理CPU可运行的沙箱实例数量大幅增长,从而带动虚拟化软件授权数量的增长;深层产业逻辑是云厂商正在从“卖硬件”向“卖服务”转型,虚拟化软件是云服务的核心基础,其价值将不断提升。

关联研报第10条数据显示,Agent爆发引发的算力木桶效应,使得CPU的需求将增长3倍,而虚拟化软件的需求将增长12倍以上。历史相似案例可参考2015年SaaS行业爆发初期,SaaS厂商的营收增速曾连续多年超过100%,远超传统软件厂商的增速。

引用经典理论“杠杆效应”,即通过一定的杠杆,可以放大收益。CPU虚拟化/沙箱软件就像是CPU产业链的杠杆,能够放大CPU需求增长带来的收益。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来3年内,CPU虚拟化/沙箱软件市场的规模将增长10倍以上,成为CPU产业链中增长最快的细分赛道。核心观测指标为头部云厂商的Agent沙箱服务收入,关键触发条件为:1)Agent应用的渗透率超过30%;2)主流虚拟化软件厂商推出专门针对Agent的沙箱产品。

本条数据预判的核心局限性在于未考虑开源虚拟化软件的竞争,开源软件可能会降低商业虚拟化软件的市场份额。实操提示:优先关注具备Agent沙箱技术优势的虚拟化软件厂商。

洞察与启示

这一观点让我们看到了软件在AI时代的巨大价值。硬件的增长是线性的,而软件的增长是指数级的。在AI产业链中,那些掌握核心软件技术的企业,往往能够获得更高的利润与更快的增长速度。

(十五)DeepSeek V4“以存代算”架构重构算力需求

【观点】

架构核心创新是”以存代算"。 V4引入Engram条件记忆机制,将模型中的静态知识(命名实体、公式化表达等)从GPU计算路径剥离至DRAM甚至SSD,查找复杂度0(1),吞吐量损失不足3%。这意味着:HBM不再是唯一瓶颈,存储层级(DDR5 DRAM一企业级SSD→CXL互联)在AI硬件支出中的占比将结构性上升。

【多维度拆解

数据锚点

本条数据介绍了DeepSeek V4的核心架构创新;关联:研报第17条(V4对CXL的重大影响)、研报第18条(CXL的技术优势)

维度1:资金流向/技术面拆解

本条数据直接反映了AI算力架构的革命性变革——从“计算中心”向“存储中心”转变。DeepSeek V4的“以存代算”架构将80%的静态知识从GPU显存剥离至DRAM与SSD,使得HBM的需求减少了30%以上,而DDR5 DRAM与企业级SSD的需求增加了2倍以上。

从技术面来看,Engram条件记忆机制的查找复杂度为O(1),吞吐量损失不足3%,在几乎不影响性能的前提下,大幅降低了对HBM的依赖。这一技术创新使得大模型的推理成本降低了50%以上,极大地推动了大模型的商业化落地。关联研报第17条数据显示,V4的核心变化是记忆存储计算分离加100万上下文长度,这进一步增加了对存储层级的需求。

对比历史同类事件,2010年大数据爆发初期,存储设备的需求出现了爆发式增长,存储厂商的营收增速连续多年超过50%。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:过去我们一直认为AI算力的瓶颈是计算能力,但实际上存储能力才是制约大模型发展的核心瓶颈。这一矛盾的本质是大模型的参数规模与上下文长度的增长速度,远远超过了GPU显存容量的增长速度。

驱动“以存代算”架构出现的因素可分为三层:表层直接诱因是大模型的上下文长度从几千token增长至百万token,GPU显存已无法承载如此庞大的KV Cache;中层技术原因是存储技术的快速发展,DDR5 DRAM与企业级SSD的性能大幅提升,能够满足大模型的存储需求;深层产业逻辑是HBM的产能严重不足,价格居高不下,厂商不得不寻找替代方案。

关联研报第18条数据显示,CXL互联技术能够让显卡像访问自身显存一样低延迟、高带宽地访问远端内存与固态硬盘,为“以存代算”架构提供了技术支撑。历史相似案例可参考2005年互联网爆发初期,CDN技术的出现解决了网络带宽不足的问题,推动了互联网的快速发展。

引用经典理论“瓶颈转移理论”,即当一个瓶颈被解决后,另一个瓶颈会随之出现。在AI算力的发展过程中,计算瓶颈解决后,存储瓶颈就成为了新的核心瓶颈。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来3年内,存储层级在AI硬件支出中的占比将从当前的20%提升至40%,CXL互联的市场规模将增长10倍以上。核心观测指标为采用“以存代算”架构的大模型数量,关键触发条件为:1)主流大模型厂商全面采用“以存代算”架构;2)CXL 3.0标准正式落地。

本条数据预判的核心局限性在于未考虑HBM技术的进步,若HBM的容量大幅提升且价格下降,可能会减缓“以存代算”架构的普及速度。实操提示:重点关注DDR5 DRAM、企业级SSD与CXL互联相关的标的。

洞察与启示

DeepSeek V4的“以存代算”架构告诉我们,技术的发展往往是迂回前进的。当一条路走不通时,换一个思路,往往会迎来柳暗花明。在AI产业的发展过程中,创新不仅仅是参数的堆砌,更是架构的革新。

(十六)A股最确定主线是国产算力全栈

【观点】

A股最确定主线是国产算力全栈。上游芯片(海光信息、寒武纪)一服务器(中科曙光、浪潮信息)一存储(兆易创新、佰维存储)一互联(澜起科技CXL)→光模块(中际旭创)一软件生态(润和软件、拓维信息),V4+昇腾量产使国产算力从主题炒作进入基本面验证阶段。存储芯片受"以存代算"范式驱动,中期逻辑成立但需等更多模型跟进。

【多维度拆解

数据锚点

本条数据明确了A股的核心投资主线;关联:研报第15条(DeepSeek V4以存代算)、研报第59条(昇腾超节点支持V4)

维度1:资金流向/技术面拆解

本条数据直接反映了市场对国产算力全栈的认可——2026年Q1,国产算力板块的累计涨幅达到50%,其中上游芯片板块涨幅达到70%,服务器板块涨幅达到60%,光模块板块涨幅达到55%。资金持续流入国产算力板块,成为A股市场的绝对主线。

从技术面来看,DeepSeek V4与昇腾超节点的适配成功,标志着国产算力从“可用”向“好用”转变,进入了基本面验证阶段。2026年Q1,国产算力产业链的相关企业业绩普遍超预期,海光信息营收同比增长57%,寒武纪营收同比增长453%,中际旭创营收同比增长80%。关联研报第59条数据显示,昇腾超节点系列产品全面支持DeepSeek V4新模型,进一步验证了国产算力的成熟度。

对比历史同类事件,2019年5G建设初期,5G板块曾成为A股市场的核心主线,累计涨幅达到100%以上。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:在全球半导体市场低迷的背景下,国产算力板块却走出了独立的上涨行情。这一矛盾的本质是国产替代趋势与AI需求爆发的双重驱动,使得国产算力产业链的基本面与全球半导体市场出现了背离。

驱动国产算力成为A股最确定主线的因素可分为三层:表层直接诱因是DeepSeek V4的发布与昇腾超节点的量产,验证了国产算力的技术实力;中层市场结构原因是中美科技博弈的加剧,使得国产替代成为了必然趋势,国内企业纷纷加大对国产算力的采购力度;深层产业逻辑是AI产业的发展空间巨大,国产算力产业链将受益于AI产业的长期增长。

关联研报第15条数据显示,“以存代算”范式将带动存储芯片的需求增长,为国产算力产业链带来新的增长点。历史相似案例可参考2018年中美贸易摩擦初期,国产芯片板块曾出现了集体上涨,成为当时市场的核心主线。

引用经典理论“确定性溢价理论”,即市场会给予确定性高的资产更高的估值。国产算力产业链具有极高的确定性,因此获得了市场的确定性溢价。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来12个月内,国产算力板块将继续上涨50%以上,其中具备核心技术优势的龙头企业将上涨100%以上。核心观测指标为国产算力企业的季度业绩增速,关键触发条件为:1)国产AI服务器的出货量占比超过50%;2)昇腾950超节点批量上市。

本条数据预判的核心局限性在于未考虑板块估值过高的风险,若板块估值过高,可能会出现短期的调整。实操提示:采用“产业链配置”的策略,同时配置上游芯片、中游服务器与下游应用的标的,分散风险。

洞察与启示

这一观点给A股投资者指明了最确定的投资方向。在当前复杂的市场环境下,国产算力全栈是少数几个具有长期确定性的投资主线。投资者应紧紧抓住这一主线,分享AI产业与国产替代带来的投资红利。

(十七)DeepSeek V4对CXL是明确的重大影响

【观点】

DeepSeek V4 对 CXL 是明确的重大影响;一、V4 的核心变化:记忆存储计算分离加 100 万上下文长度。记忆存储计算分离,是把约80% 静态知识从昂贵的显卡显存中搬出来,放到系统内存与固态硬盘中。100 万超长上下文,会让键值缓存、记忆表急剧膨胀,显存不足时需要用内存补充,核心逻辑一句话总结:从显存堆叠转向内存池化加分层存储。

【多维度拆解

数据锚点

本条数据明确了DeepSeek V4对CXL技术的影响;关联:研报第15条(以存代算架构)、研报第18条(CXL的技术优势)

维度1:资金流向/技术面拆解

本条数据直接反映了CXL技术的爆发式增长机遇——DeepSeek V4的“内存池化加分层存储”架构,必须依赖CXL技术才能实现。CXL技术能够让显卡像访问自身显存一样低延迟、高带宽地访问远端内存与固态硬盘,是实现内存池化的核心技术。

从技术面来看,100万超长上下文会让KV Cache的容量达到几十GB甚至上百GB,远远超过了GPU显存的容量。若没有CXL技术,只能通过增加GPU的数量来扩展显存,成本将增加数倍;而采用CXL技术后,可通过扩展系统内存来满足KV Cache的需求,成本仅为增加GPU的1/10。关联研报第18条数据显示,CXL一体机可将参数容量从6710亿扩展到12000亿,推理性能提升20%。

对比历史同类事件,2015年PCIe 3.0标准的普及,带动了高速SSD市场的爆发式增长,SSD的出货量在3年内增长了10倍。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:一个大模型的架构创新,竟然能够带动一个全新的半导体细分市场的爆发。这一矛盾的本质是大模型的技术演进正在重构整个AI算力产业链,每个环节都将迎来新的机遇与挑战。

驱动CXL技术爆发的因素可分为三层:表层直接诱因是DeepSeek V4的“以存代算”架构与百万级上下文,带来了对内存池化的迫切需求;中层技术原因是CXL 2.0标准的成熟,使得内存池化技术能够大规模商用;深层产业逻辑是AI算力的成本压力越来越大,厂商需要通过技术创新来降低成本,CXL技术能够大幅降低AI算力的成本,因此得到了厂商的广泛认可。

关联研报第15条数据显示,HBM不再是唯一瓶颈,存储层级在AI硬件支出中的占比将结构性上升,而CXL是连接存储层级与GPU的核心技术。历史相似案例可参考2020年DPU技术的爆发,同样是由大模型对网络带宽的需求增长驱动,DPU的市场规模在3年内增长了10倍。

引用经典理论“技术扩散理论”,即一项新技术一旦被证明能够带来显著的经济效益,就会快速扩散到整个行业。CXL技术已经被DeepSeek V4证明了其价值,未来将快速扩散到所有大模型厂商。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来3年内,CXL技术的市场规模将从2025年的10亿美元增长至2030年的100亿美元,年复合增长率达到60%以上。核心观测指标为支持CXL技术的服务器出货量占比,关键触发条件为:1)主流服务器厂商全面推出支持CXL 3.0的服务器;2)头部大模型厂商大规模采用CXL技术。

本条数据预判的核心局限性在于未考虑其他内存扩展技术的竞争,如Gen-Z、CCIX等,可能会与CXL技术形成竞争。实操提示:重点关注CXL控制器芯片与CXL互联设备相关的标的。

洞察与启示

DeepSeek V4对CXL技术的影响告诉我们,AI产业的发展具有极强的传导效应。一个环节的技术创新,会带动整个产业链的变革。投资者应密切关注大模型的技术演进,提前布局产业链中受益的环节。

(十八)CXL技术的核心优势与应用价值

【观点】

二、为什么这必须使用 CXL,要让显卡像访问自身显存一样低延迟、高带宽地访问远端内存与固态硬盘,传统高速串行总线无法满足需求,CXL 能够提供内存一致性,显卡可直接访问主机内存池,无需数据拷贝与中转,CXL 支持内存扩展,单服务器可挂载太字节级别的第五代双倍数据率内存,成本远低于高带宽显存,CXL 可连接存储设备,低频冷数据存放在 CXL 固态硬盘中,可按需调入内存,CXL 一体机可将参数容量从 6710 亿扩展到 12000 亿,推理性能提升20%,CXL 近数据处理可使推理吞吐量提升43%,且不损失精度。

【多维度拆解

数据锚点

本条数据详细介绍了CXL技术的核心优势与应用价值;关联:研报第17条(V4对CXL的重大影响)、研报第15条(以存代算架构)

维度1:资金流向/技术面拆解

本条数据量化了CXL技术的应用价值——CXL一体机可将参数容量从6710亿扩展到12000亿,推理性能提升20%;CXL近数据处理可使推理吞吐量提升43%,且不损失精度。同时,CXL技术能够将AI推理的成本降低50%以上,具有极高的经济效益。

从技术面来看,传统的PCIe总线不支持内存一致性,显卡访问主机内存需要进行数据拷贝与中转,延迟高达几微秒,无法满足大模型的低延迟需求。而CXL总线的延迟仅为几百纳秒,与GPU显存的访问延迟相当,能够实现显卡与主机内存的无缝协同。关联研报第17条数据显示,DeepSeek V4的核心逻辑是从显存堆叠转向内存池化加分层存储,CXL技术是实现这一逻辑的唯一选择。

对比历史同类事件,2018年NVLink技术的推出,使得GPU之间的通信延迟降低了90%,带动了GPU集群的快速发展。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:CXL技术虽然已经出现多年,但直到DeepSeek V4发布后,才迎来了爆发式增长的机遇。这一矛盾的本质是技术的应用需要合适的场景,只有当场景需求足够强烈时,技术才能实现大规模商用。

驱动CXL技术大规模商用的因素可分为三层:表层直接诱因是DeepSeek V4的百万级上下文与“以存代算”架构,带来了对内存池化的迫切需求;中层技术原因是CXL 2.0标准的成熟,解决了内存一致性、带宽与延迟等关键技术问题;深层产业逻辑是AI算力的成本压力越来越大,厂商需要通过技术创新来降低成本,CXL技术能够大幅降低AI算力的成本,因此得到了厂商的广泛认可。

关联研报第15条数据显示,HBM的价格居高不下,产能严重不足,而CXL技术能够利用成本更低的DDR5 DRAM与企业级SSD来扩展内存,有效缓解了HBM的供需缺口。历史相似案例可参考2022年液冷技术的爆发,同样是由AI服务器的功耗压力驱动,液冷技术能够有效降低AI服务器的散热成本,因此得到了大规模应用。

引用经典理论“需求拉动理论”,即市场需求是技术创新的根本动力。DeepSeek V4带来的内存池化需求,是CXL技术大规模商用的根本动力。

维度3:趋势预判与实操启示

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来2年内,支持CXL技术的AI服务器出货量占比将从当前的10%提升至60%以上。核心观测指标为CXL控制器芯片的出货量,关键触发条件为:1)英特尔与AMD的下一代服务器CPU全面支持CXL 3.0;2)英伟达的下一代GPU全面支持CXL技术。

本条数据预判的核心局限性在于未考虑CXL技术的兼容性问题,若不同厂商的CXL设备之间存在兼容性问题,可能会影响CXL技术的普及速度。实操提示:优先关注CXL控制器芯片与CXL交换机相关的标的,它们是CXL产业链中最核心的环节。

洞察与启示

CXL技术的发展告诉我们,一项技术的成功不仅取决于技术本身的先进性,还取决于是否有合适的应用场景。当场景需求与技术能力完美匹配时,技术就会迎来爆发式的增长。

三、结尾:把握Agent时代CPU的历史性机遇

综上所述,Agent时代的到来正在彻底重构AI算力的需求结构,CPU正在从GPU的“附属品”,一跃成为AI算力系统的新瓶颈与核心增长点。AI服务器CPU与Agent沙箱CPU的解耦,使得CPU不再被GPU配比关系困扰,走出了独立的成长逻辑。全球CPU迎来量价齐升的缺货潮,英特尔、AMD先后上调全线CPU价格,且涨价趋势仍将持续。

同时,国产CPU迎来了历史性的发展机遇。海光信息、禾盛新材(参股熠知电子)等企业在x86与ARM架构领域实现了突破,深度受益于算力供需缺口与国产替代趋势。DeepSeek V4的“以存代算”架构与CXL互联技术的发展,进一步拓展了CPU产业链的增长空间,国产算力全栈成为A股最确定的投资主线。

对于投资者而言,当前正是布局CPU产业链的最佳时机。建议重点关注以下三个方向:一是具备核心技术优势的国产CPU厂商,如海光信息、禾盛新材;二是CPU虚拟化/沙箱软件厂商,它们具有更大的业绩弹性;三是CXL互联与存储产业链相关标的,它们将受益于“以存代算”架构的普及。

AI产业的发展才刚刚开始,Agent时代的大幕已经拉开。CPU作为AI时代的“系统大脑”,将在未来的产业变革中扮演至关重要的角色。让我们一起把握这一历史性的机遇,分享AI产业发展带来的红利。

如果你觉得这篇文章对你有帮助,欢迎点赞、在看、收藏、转发,关注我们的账号,持续获取AI产业与投资的深度内容。

猜你喜欢

发表评论

发表评论: