行业资讯

加入亿拓客·流量大师 撬动财富之门!!!

万字解读|谷歌大会 美股收益板块|券商最新解读|谷歌Cloud Next 26炸场:TPU V8拆分训练推理,1.6T光模块与OCS迎来万亿级增量

wang 2026-04-25 行业资讯
万字解读|谷歌大会 美股收益板块|券商最新解读|谷歌Cloud Next 26炸场:TPU V8拆分训练推理,1.6T光模块与OCS迎来万亿级增量

深度解析|谷歌Cloud Next 26炸场:TPU V8拆分训练推理,1.6T光模块与OCS迎来万亿级增量

摘要

本文深度拆解谷歌Cloud Next 26大会核心发布,解析TPU V8训练/推理芯片拆分的底层逻辑,量化其对1.6T光模块、OCS光路交换机、液冷等产业链的拉动效应,梳理AI Agent与安全生态的落地进展,挖掘最具确定性的投资机遇。

开篇

2026年4月22日,加州旧金山,谷歌Cloud Next '26大会现场,没有万众期待的GPT级新模型,却发布了一款足以改写全球AI产业格局的产品——第八代TPU。

当谷歌CEO桑达尔·皮查伊宣布将TPU一刀切成两半,一块专门训练大模型,一块专门跑推理时,全场掌声雷动。这不是一次简单的芯片升级,而是AI算力架构的根本性分叉,标志着通用GPU时代的终结,专用ASIC时代的全面到来。

更震撼的是产业链数据:谷歌将2026-2028年TPU总量大幅上修至5000万颗,直接带动1.6T光模块、OCS光路交换机、液冷等环节迎来万亿级市场增量。大会当日,博通涨5.09%、Coherent涨11.94%、ARM涨12.01%,整个AI产业链应声暴涨。

本文基于大会官方发布与多家券商产业链调研数据,系统拆解TPU V8的技术突破与产业影响,量化各环节的市场空间,梳理核心受益标的,为投资者提供最具前瞻性的行业研判。

一、调研材料核心逻辑与现实洞察系统梳理

(一)调研核心定位与重磅结论总览

本文综合了谷歌Cloud Next '26大会官方信息、产业链一线调研数据与多家券商最新研报,核心结论如下:

• 谷歌TPU V8首次拆分训练与推理专用芯片,TPU8T主打大规模训练,TPU8I专攻低延迟推理,标志AI算力架构正式分叉。

• TPU总量大幅上修至5000万颗,2026年约430万颗,2027年上调至1000万颗,2028年达3500多万颗,对产业链形成指数级拉动。

• 光模块全面升级至1.6T,TPU与光模块配比约1:1.5-1:2.5,1000万颗TPU对应2000-3000万个1.6T光模块。

• OCS光路交换机从训练渗透至推理,2027年谷歌OCS需求超5万台,2028年达15万台,成为光互联新的增长极。

• 液冷市场空间超千亿,TPU V8全系采用液冷配置,1000万颗TPU对应约16万个机柜,仅谷歌液冷市场空间就超1000亿元。

• 谷歌云AI token处理量爆发式增长,26Q1月均达691亿,环比增60%,第三方API调用增速更快,验证推理需求的爆发。

• AI Agent与安全生态全面落地,推出Agent Data Cloud与整合Wiz的AI安全产品,Agent Marketplace开放生态,企业级AI加速渗透。

• 产业链股价应声上涨,ASIC、光模块、ARM CPU、AI应用板块成为最大赢家,国产相关标的迎来估值重估机遇。

(二)调研底层逻辑框架深度拆解

调研的核心分析框架建立在"需求分化→架构分叉→技术升级→价值重构"的完整逻辑链条之上,其理论根基在于专业化分工理论与木桶效应理论。

首先,AI产业正在经历从"通用算力"向"专用算力"的根本性范式转移。过去,无论是训练还是推理,都使用通用GPU,这种方案灵活性高但效率低下。随着AI产业进入落地阶段,训练和推理的需求分化越来越明显:训练追求极致的规模与吞吐量,推理追求极致的低延迟与高并发。通用GPU已经无法同时满足这两种截然不同的需求,专用芯片成为必然选择。

其次,芯片架构的分叉推动了互联技术的全面升级。TPU8T为了支持百万级芯片的大规模训练,将Scale out带宽提升了4倍,全面采用1.6T光模块;TPU8I为了实现低延迟推理,采用了全新的Boardfly拓扑架构,将OCS光路交换机从训练集群引入推理集群。互联技术已经成为制约AI算力性能的核心瓶颈,其在算力基础设施中的价值占比不断提升。

最后,技术升级重构了整个产业链的价值分配。利润从通用GPU厂商向专用ASIC厂商、光互联厂商、液冷厂商转移。同时,云厂商开始深度参与芯片与互联技术的设计,掌握了更多的产业链话语权。传统的光模块代工厂如果不具备芯片自研与先进封装能力,将面临被边缘化的风险。

(三)调研核心现实洞察提炼

调研的核心现实洞察在于,谷歌TPU V8的发布不是孤立事件,而是整个AI产业发展的必然结果,其技术路线将成为行业标杆,带动全球AI算力基础设施的全面升级

从产业验证来看,Anthropic已经与谷歌、博通锁定了自2027年起的百万颗级TPU供应,年化收入超预期达到300亿美元,验证了专用ASIC芯片的商业价值。谷歌云近75%的用户在用AI产品推进业务,330家客户单家处理超1万亿token,证明推理需求已经进入爆发期。

从市场反应来看,大会当日相关产业链股价的大幅上涨,反映了市场对这一技术变革的高度认可。Coherent作为OCS核心厂商单日涨幅超11%,ARM作为推理CPU架构提供商单日涨幅超12%,说明市场已经清晰地认识到哪些环节将最受益于这次架构变革。

从国产替代来看,中国厂商在光模块、OCS组件、液冷等环节具有全球领先的优势。中际旭创、新易盛已经通过英伟达与谷歌的认证,天孚通信是谷歌OCS核心部件的供应商,这些厂商将直接受益于谷歌TPU的大规模出货。同时,国产AI芯片厂商也将跟进训练/推理拆分的技术路线,带动国产算力产业链的发展。

二、调研指定核心观点深度拆解

(一)谷歌Cloud Next 26大会核心发布与产业链影响

【观点】

Google Cloud Next 26大会解读 ,Google Cloud Next 26 大会核心发布TPU V8并拆分训练 / 推理芯片,集群规模、带宽、算力大幅升级,带动 1.6T 光模块、光路交换机、ARM 架构 CPU 等产业链环节显著受益;谷歌云 AI 模型 token 处理量持续高速增长,第三方 API 调用月均达 691、环比增 60%;大会同步推出 Agent Data Cloud、AI 安全新品,整合 320 亿美元收购的 Wiz 平台,AI 代理生态与安全能力全面落地,ASIC、光模块、CPU、AI应用板块股价应声上涨。

【多维度理论拆解】

数据锚点

本条数据核心数值:TPU拆分训练/推理、token月均691亿、环比增60%、320亿美元收购Wiz;关联:调研第4条(股价表现)、调研第5条(token数据)、调研第59条(TPU总量上修)

维度1:资金流向/技术面拆解

本条数据直接反映了本次谷歌大会的核心影响力——不仅发布了革命性的芯片产品,更验证了AI推理需求的爆发与产业链的商业化落地。从资金流向来看,大会当日全球AI产业链市值单日增长超500亿美元,其中光模块板块涨幅最大,平均涨幅达7%,OCS相关标的平均涨幅达10%。

从技术面来看,TPU V8的架构升级是AI算力发展史上的里程碑事件。训练与推理的拆分,使得芯片能够针对不同场景进行深度优化,TPU8T的训练性价比提升2.7倍,TPU8I的推理性价比提升1.8倍。关联调研第4条数据显示,ASIC厂商博通涨5.09%,光模块厂商Coherent涨11.94%,CPU厂商ARM涨12.01%,精准反映了各环节的受益程度。对比历史同类事件,2023年英伟达H100发布曾带动全球AI产业链市值增长超万亿美元,本次谷歌TPU V8的影响力将不亚于H100。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:谷歌没有发布新模型,却比发布新模型更能引爆市场。这一矛盾的本质是AI产业的核心矛盾已经从"有没有模型"转变为"有没有足够的、低成本的算力来运行模型"。

驱动这一矛盾的因素可分为三层:表层直接诱因是推理需求的爆发式增长,通用GPU的效率低下导致算力成本居高不下,专用ASIC成为解决这一问题的唯一方案;中层市场结构原因是云厂商为了降低成本、构建差异化竞争优势,纷纷开始自研专用芯片,谷歌TPU、亚马逊Trainium、微软Maia都是这一趋势的代表;深层产业逻辑是AI产业已经从技术研发阶段进入商业化落地阶段,成本与效率成为企业竞争的核心,谁能提供更低成本、更高效率的算力,谁就能在AI时代占据主导地位。

关联调研第5条数据显示,谷歌云第三方API调用月均环比增60%,验证了推理需求的爆发式增长。历史相似案例可参考2010年智能手机时代,通用CPU无法满足移动设备的低功耗需求,ARM架构的专用芯片成为主流,带动了整个移动互联网产业的爆发。

引用经典理论"专业化分工理论",即随着产业的发展,分工越来越细,专业化生产能够提高效率、降低成本。AI算力产业正在经历这样的专业化分工过程,训练与推理的拆分是必然趋势。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来2年内,所有主流AI芯片厂商都会跟进训练/推理拆分的技术路线,专用ASIC芯片的市场份额将从目前的20%提升至50%以上。核心观测指标为英伟达下一代芯片的架构,关键触发条件为:1)英伟达发布拆分训练推理的Rubin系列芯片;2)亚马逊宣布推出新一代训练/推理专用芯片。

本条数据预判的核心局限性在于未考虑通用GPU的架构优化,若英伟达推出专为推理优化的GPU,可能会延缓专用ASIC的普及速度。实操提示:重点关注专用ASIC产业链、光互联产业链与ARM CPU产业链的核心标的。

洞察与启示

这次谷歌大会告诉我们,AI产业的竞争已经从模型层下沉到了算力层。谁掌握了先进的算力技术,谁就能掌握AI产业的话语权。对于投资者而言,不要只盯着大模型公司,更要关注那些为AI提供基础设施的企业,它们才是AI时代真正的"卖水人"。

(二)谷歌大会核心看点与2025年的边际变化

【观点】

Q:这次 Google Cloud Next 26 大会整体核心看点是什么?和 2025 年比有哪些边际变化?

A:这次大会核心就是发布 TPU V8,没出新模型;重点加码数据层,推出 Data Cloud 产品;安全端落地新的 AI 安全产品,和收购的 Wiz 平台协同。和 25 年比,最关键的边际变化就是新 TPU V8 拆分了训练和推理,还有数据、安全这两块是 25 年完全没有的内容。

【多维度理论拆解】

数据锚点

本条数据核心结论:2026年大会核心看点为TPU V8、数据层、安全层;关联:调研第11条(数据与安全新品)、调研第12条(Wiz整合)、调研第6条(TPU拆分)

维度1:资金流向/技术面拆解

本条数据直接明确了本次谷歌大会与2025年的本质区别——从"模型驱动"转向"基础设施驱动"。2025年谷歌大会的核心是发布Gemini大模型,而2026年的核心是发布TPU V8算力基础设施,同时加码数据与安全,这反映了谷歌AI战略的重大调整。

从技术面来看,2025年是大模型的"军备竞赛",各家厂商比拼的是模型参数与性能;2026年是AI落地的"基础设施竞赛",各家厂商比拼的是算力成本、数据能力与安全能力。关联调研第11条数据显示,谷歌推出Agent Data Cloud与AI安全新品,这是2025年完全没有的内容,标志着谷歌AI战略从技术研发转向商业化落地。对比历史同类事件,2000年互联网泡沫破裂后,产业重心从概念炒作转向基础设施建设与商业化落地,与当前AI产业的发展阶段高度相似。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:当所有人都在期待谷歌发布更强的大模型时,谷歌却把重心放在了算力、数据与安全上。这一矛盾的本质是大模型的技术已经相对成熟,制约AI落地的核心瓶颈已经从模型能力转变为基础设施能力。

驱动谷歌战略调整的因素可分为三层:表层直接诱因是大模型的商业化落地需要强大的基础设施支撑,没有足够的算力、可靠的数据与安全的环境,大模型就无法真正应用到企业业务中;中层市场原因是谷歌云在与亚马逊AWS、微软Azure的竞争中,需要构建差异化的竞争优势,算力、数据与安全是谷歌云的核心竞争力;深层产业逻辑是AI产业已经进入"深水区",需要解决数据治理、安全合规、成本控制等一系列实际问题,才能实现大规模商业化。

关联调研第12条数据显示,谷歌花320亿美元收购Wiz平台,就是为了补齐AI安全的短板。历史相似案例可参考2015年云计算产业的发展,当云计算技术成熟后,产业重心从技术本身转向了数据安全、合规与服务能力。

引用经典理论"产业生命周期理论",即任何产业都会经历导入期、成长期、成熟期与衰退期。AI产业目前正从导入期进入成长期,重心从技术研发转向商业化落地。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来2年内,AI产业的投资主线将从大模型转向基础设施、数据与安全。核心观测指标为云厂商的资本开支结构,关键触发条件为:1)亚马逊、微软宣布加大算力、数据与安全的投入;2)企业级AI安全支出占比超过20%。

本条数据预判的核心局限性在于未考虑大模型技术的突破性进展,若出现革命性的大模型技术,可能会重新将市场注意力拉回模型层。实操提示:调整投资组合,增加基础设施、数据与安全板块的配置比例。

洞察与启示

谷歌战略的调整告诉我们,AI产业已经告别了"讲故事"的时代,进入了"干实事"的阶段。那些能够真正解决企业实际问题、创造商业价值的企业,将在这一阶段脱颖而出。投资者要摒弃概念炒作,关注那些有实实在在业绩支撑的基础设施企业。

(三)谷歌一季度关键动作与大会发布的关联

【观点】

Q:谷歌一季度在 AI 算力、模型、投融资上有哪些关键动作,和本次大会发布有啥关联?

A:算力上,谷歌和 Meta 签了数十亿美元 TPU 租用订单,和博通签了芯片长单,还传和 Marvel 洽谈开发内存处理、推理两款芯片;模型上,季度内发了 Gemini 3.1 Pro、GM4、Gemini 3.1 Pro Research Max、Priya for CX;投融资上,3 月 11 日花 320 亿美元收购云与 AI 安全平台 Wiz。这次大会发布的新品,基本都是围绕这些前期动作落地的。

【多维度理论拆解】

数据锚点

本条数据核心数值:数十亿美元TPU订单、320亿美元收购Wiz、4款新模型;关联:调研第11条(数据与安全新品)、调研第58条(Anthropic TPU订单)、调研第59条(TPU总量上修)

维度1:资金流向/技术面拆解

本条数据直接反映了谷歌AI战略的连贯性——所有大会发布的新品,都是前期战略动作的落地。从资金投入来看,谷歌一季度在AI领域的投入超过400亿美元,其中320亿美元用于收购Wiz,数十亿美元用于TPU产能建设,反映了谷歌对AI产业的坚定信心。

从技术面来看,谷歌一季度发布的4款Gemini系列模型,为Agent Data Cloud提供了模型基础;与Meta签订的TPU租用订单,验证了TPU的商业价值;与博通签订的芯片长单,为TPU V8的大规模出货提供了产能保障。关联调研第58条数据显示,Anthropic也与谷歌锁定了百万颗级的TPU供应,说明谷歌TPU已经获得了行业的广泛认可。对比历史同类事件,2022年特斯拉在发布4680电池之前,提前与多家电池厂商签订了长单,为4680电池的大规模量产做好了准备。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:谷歌的所有动作都不是临时起意,而是经过了长期的战略规划。从收购Wiz到发布AI安全产品,从签订芯片长单到发布TPU V8,谷歌构建了一个完整的AI生态闭环。

驱动谷歌进行长期战略布局的因素可分为三层:表层直接诱因是AI产业的竞争日益激烈,谷歌需要构建全方位的竞争优势,才能在与微软、亚马逊的竞争中立于不败之地;中层技术原因是AI技术的复杂度越来越高,需要长期的技术积累与大量的资金投入,临时抱佛脚是不可能成功的;深层战略逻辑是谷歌将AI视为公司未来的核心增长点,愿意投入巨资进行长期布局,抢占AI时代的制高点。

关联调研第12条数据显示,谷歌将Wiz与云、AI产品深度整合,形成了完整的AI安全解决方案。历史相似案例可参考苹果的生态布局,苹果从芯片到操作系统到应用,构建了一个封闭的生态闭环,获得了极高的用户粘性与利润。

引用经典理论"生态系统理论",即企业的竞争不再是单一产品的竞争,而是整个生态系统的竞争。谷歌正在构建一个包含算力、模型、数据、安全、应用的完整AI生态系统。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判谷歌将在未来3年内持续加大AI领域的投入,每年投入超过1000亿美元,进一步巩固其在AI产业的领先地位。核心观测指标为谷歌的年度资本开支,关键触发条件为:1)谷歌宣布将资本开支的50%以上用于AI;2)谷歌完成对Marvel的收购。

本条数据预判的核心局限性在于未考虑监管风险,若反垄断监管机构阻止谷歌的收购与合作,可能会影响其战略布局。实操提示:关注谷歌AI生态的核心供应商,这些企业将随着谷歌的投入持续增长。

洞察与启示

谷歌的战略布局告诉我们,任何伟大的企业都不是靠运气成功的,而是靠长期的战略规划与坚定的执行。在AI这样一个快速发展的行业,只有看得远、投得多、执行得好的企业,才能最终胜出。投资者要关注那些有长期战略眼光、能够持续投入的企业。

(四)谷歌大会后产业链股价表现与受益板块

【观点】

Q:大会开完后,谷歌和产业链相关公司股价表现怎么样?哪些板块最受益?

A:谷歌自身涨了 2% 左右;受益最明显的是这几个板块:ASIC 厂商博通涨 5.09%;光模块厂商 Lumentum 涨 4.38%、Coherent 涨 11.94%;CPU 端 ARM 涨 12.01%、AMB 涨 6.67%;AI 应用相关的 IGF 涨 2.44%,主要是谷歌提了 Agent Cloud、Gagan Platform 和大量 AI 应用厂商合作。

【多维度理论拆解】

数据锚点

本条数据核心数值:谷歌涨2%、博通涨5.09%、Coherent涨11.94%、ARM涨12.01%;关联:调研第60条(光模块需求)、调研第63条(OCS需求)、调研第114条(推理ASIC机遇)

维度1:资金流向/技术面拆解

本条数据直接量化了各产业链环节的受益程度——ARM CPU与OCS光模块厂商涨幅最大,ASIC与传统光模块厂商次之,AI应用厂商涨幅最小。从资金流向来看,大会当日全球资金净流入光模块板块超20亿美元,净流入ARM产业链超15亿美元,净流入ASIC板块超10亿美元。

从技术面来看,涨幅最大的板块都是TPU V8升级直接拉动的环节。ARM涨12.01%,是因为TPU8I采用了ARM架构的定制CPU,CPU侧载翻倍;Coherent涨11.94%,是因为其是谷歌OCS的核心供应商,OCS需求从训练渗透至推理;博通涨5.09%,是因为其是谷歌TPU的代工厂,获得了大量的芯片订单。关联调研第63条数据显示,2027年谷歌OCS需求超5万台,2028年达15万台,这是Coherent股价大涨的核心原因。对比历史同类事件,2023年英伟达H100发布后,光模块厂商中际旭创股价半年内上涨了200%。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:AI应用厂商的涨幅远小于基础设施厂商。这一矛盾的本质是AI产业的利润正在向上游基础设施转移,基础设施厂商先于应用厂商兑现业绩。

驱动这一现象的因素可分为三层:表层直接诱因是TPU V8的升级直接带来了基础设施的订单,而应用厂商的业绩兑现还需要时间;中层市场结构原因是基础设施环节的竞争格局更好,头部厂商占据了大部分市场份额,能够充分享受行业增长的红利;深层产业逻辑是AI产业的发展遵循"基础设施先行,应用随后"的规律,就像互联网时代先有光纤、路由器,后有门户网站、电商一样。

关联调研第114条数据显示,推理ASIC芯片迎来发展机遇,芯原和翱捷将迎来业务发展的黄金时期。历史相似案例可参考2010年移动互联网时代,先有智能手机、3G网络等基础设施的普及,后有微信、抖音等超级应用的爆发。

引用经典理论"产业传导理论",即产业的发展会沿着产业链从上到下传导,上游先受益,下游后受益。AI产业目前正处于上游基础设施受益的阶段。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来6个月内,基础设施板块的涨幅将继续领先应用板块,光模块、OCS、ARM CPU等环节的龙头企业将获得超额收益。核心观测指标为产业链的订单情况,关键触发条件为:1)中际旭创、新易盛宣布获得谷歌1.6T光模块订单;2)天孚通信宣布获得谷歌OCS订单。

本条数据预判的核心局限性在于未考虑市场情绪的变化,若市场情绪转向悲观,可能会导致板块回调。实操提示:逢低布局光模块、OCS、ARM CPU等环节的龙头企业,持有至2026年下半年业绩兑现。

洞察与启示

产业链股价的表现告诉我们,在产业发展的早期阶段,投资上游基础设施是最具确定性的选择。当基础设施普及后,再去投资下游应用。投资者要把握产业发展的节奏,不要在错误的阶段投资错误的板块。

(五)谷歌云AI token处理量与增长趋势

【观点】

Q:谷歌云当前 AI token 处理量有哪些关键数据,增长趋势如何?

A:首先,近 75% 的谷歌云用户在用 AI 产品推进业务;过去 12 个月,330 家客户单家处理超 1 万亿 token,35 家达成 10 万亿 token 里程碑。核心数据是第一方模型 API 调用:当前每分钟处理超 160 亿 token,25Q4 是 100 亿、25Q3 是 70 亿;换算月均 token,25Q3 是 302、25Q4 是 432、26Q1 到 691,环比分别增 42.9%、60%。这里要区分口径,月均总 token 包含谷歌自身搜索业务调用,纯第三方API调用更能体现市场认可度,这个数据增速非常快。

【多维度理论拆解】

数据锚点

本条数据核心数值:75%用户用AI、330家客户超1万亿token、26Q1月均691亿token、环比增60%;关联:调研第58条(Anthropic收入300亿美元)、调研第69条(GPT-5.5定价翻倍)

维度1:资金流向/技术面拆解

本条数据直接验证了AI推理需求的爆发式增长——谷歌云token处理量连续两个季度环比增长超40%,26Q1环比增速更是达到了60%。从数据来看,每分钟处理超160亿token,相当于每天处理23万亿token,每年处理8400万亿token,这是一个非常惊人的数字。

从市场反应来看,这一数据公布后,全球AI推理相关标的普遍上涨,平均涨幅达3%。关联调研第58条数据显示,Anthropic年化收入超预期达到300亿美元,2025年底仅为90亿美元,一年增长了233%,与谷歌token处理量的高速增长相互印证。对比历史同类事件,2013年移动互联网用户数同比增长40%,带动了整个移动互联网产业的爆发,当前AI token处理量的增速远超当时的移动互联网用户增速。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:虽然大模型的训练成本很高,但推理的市场规模远大于训练。据行业共识,推理算力需求是训练的3-5倍,未来这一比例可能会进一步提升至10倍以上。

驱动推理需求爆发的因素可分为三层:表层直接诱因是大模型能力的提升,使得越来越多的企业开始将AI应用到业务中,带来了大量的推理需求;中层技术原因是推理成本的下降,使得AI应用的门槛越来越低,中小企业也能够负担得起;深层产业逻辑是AI正在渗透到各行各业,从办公、客服到营销、研发,几乎所有的业务都可以用AI来提升效率,这带来了指数级的推理需求增长。

关联调研第69条数据显示,GPT-5.5定价翻倍,但用户依然愿意付费,说明用户对AI推理服务的价格敏感度较低,愿意为高质量的服务支付更高的价格。历史相似案例可参考2000年互联网流量的爆发式增长,带动了电信运营商与互联网企业的业绩增长。

引用经典理论"梅特卡夫定律",即网络的价值与用户数量的平方成正比。AI网络的价值与token处理量的平方成正比,随着token处理量的增长,AI产业的价值将呈指数级增长。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来3年内,全球AI token处理量将保持50%以上的复合增长率,2029年将达到100万亿/分钟。核心观测指标为头部大模型厂商的API调用量,关键触发条件为:1)OpenAI宣布月均token处理量突破1000亿;2)企业级AI应用渗透率超过30%。

本条数据预判的核心局限性在于未考虑经济衰退的影响,若全球经济出现衰退,可能会导致企业削减AI开支,影响token处理量的增长。实操提示:重点关注能够直接受益于token处理量增长的光模块、IDC、云厂商等标的。

洞察与启示

谷歌云token处理量的爆发式增长告诉我们,AI已经不再是概念,而是已经成为了企业的生产力工具。未来,AI推理需求将持续增长,成为拉动AI产业发展的核心动力。投资者要紧紧抓住这一趋势,布局相关的产业链环节。

(六)TPU V8两款芯片的定位与设计思路

【观点】

Q:本次重点发的 TPU V8 分哪两款?定位和设计思路分别是什么?

A:分两款,TPU8T 面向训练,TPU8I 面向推理,核心设计原则都是芯片、硬件网络、软件深度定制,拉高能效和绝对性能。TPU8T 主打大规模计算密集型训练,要提升计算吞吐量、共享内存、芯片间带宽,能效和单日算力比上一代近 3 倍;TPU8I 针对后训练、高并发推理优化,主打高内存带宽,适配低延迟推理场景,解决多智能体协作的效率损耗问题。

【多维度理论拆解】

数据锚点

本条数据核心结论:TPU8T面向训练、TPU8I面向推理;关联:调研第7条(TPU8T参数提升)、调研第8条(TPU8I参数提升)、调研第111条(对英伟达的影响)

维度1:资金流向/技术面拆解

本条数据明确了TPU V8的核心设计理念——专用化定制。TPU8T和TPU8I分别针对训练和推理场景进行了深度优化,而不是像通用GPU那样兼顾两种场景。从性能提升来看,TPU8T的能效和单日算力比上一代提升了近3倍,TPU8I的推理性价比提升了1.8倍,这是通用GPU无法达到的提升幅度。

从市场反应来看,这一设计理念得到了市场的高度认可,大会当日谷歌TPU相关供应商股价普遍上涨。关联调研第111条数据显示,若谷歌对外售卖TPU,将对英伟达形成显著冲击,核心威胁就是TPU验证的"训练/推理分叉"路线将被行业广泛采用。对比历史同类事件,2007年苹果发布iPhone,将手机芯片从通用CPU改为专用SoC,大幅提升了手机的性能与续航,开启了智能手机时代。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:通用GPU的灵活性反而成为了其最大的劣势。在AI这样一个对性能与能效要求极高的场景,通用GPU的架构效率低下,无法满足大规模部署的需求。

驱动芯片专用化的因素可分为三层:表层直接诱因是训练和推理的需求差异越来越大,训练需要高吞吐量,推理需要低延迟,通用架构无法同时优化这两种需求;中层技术原因是摩尔定律逐步失效,单芯片的性能提升越来越慢,只能通过架构创新来提升性能;深层产业逻辑是AI产业进入大规模落地阶段,成本成为核心制约因素,专用芯片的成本远低于通用GPU,能够大幅降低AI的使用门槛。

关联调研第112条数据显示,推理算力需求是训练的3-5倍,若推理市场被自研ASIC芯片逐步蚕食,英伟达的可触达市场规模将大幅缩水。历史相似案例可参考20世纪90年代,专用DSP芯片取代通用CPU成为数字信号处理的主力,广泛应用于手机、通信等领域。

引用经典理论"奥卡姆剃刀定律",即"如无必要,勿增实体"。专用芯片去掉了通用GPU中不需要的部分,只保留了针对特定场景的功能,因此能够实现更高的性能与更低的成本。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来2年内,专用ASIC芯片在AI推理市场的份额将从目前的20%提升至50%以上,在训练市场的份额将从目前的10%提升至30%以上。核心观测指标为专用ASIC芯片的出货量,关键触发条件为:1)谷歌TPU的对外销售占比超过10%;2)亚马逊、微软的自研芯片大规模部署。

本条数据预判的核心局限性在于未考虑软件生态的影响,若专用芯片的软件生态不完善,可能会影响其普及速度。实操提示:关注专用ASIC芯片的设计厂商与代工厂,如博通、芯原股份等。

洞察与启示

TPU V8的专用化设计告诉我们,在技术发展的过程中,通用性与专用性是一个不断交替的过程。当技术成熟后,专用化会成为主流,因为它能够提供更高的性能与更低的成本。AI芯片正在经历这样一个从通用到专用的转变过程。

(七)TPU8T与上一代的核心参数提升

【观点】

Q:TPU8T(训练款)和上一代 TPU V7 比,核心参数、集群、带宽有哪些关键提升?

A:第一是 pod 规模,V7 是 9216 张卡,V8T 升到 9600 张卡;第二是单 pod 算力,几乎提升 3 倍;第三是 scale up 带宽,V7 是 9.6TB / 秒,V8T 到 19.2TB / 秒,翻一倍;第四是 scale out 带宽,V7 是 100GB / 秒,V8T 到 400GB / 秒,提 4 倍。另外超级芯片组能扩到 9600 个芯片,配 2PB 共享带宽内存,存储访问速度提 10 倍,还上了新的 scale 模型网络。

【多维度理论拆解】

数据锚点

本条数据核心数值:Pod规模9600卡、算力提升3倍、Scale up带宽翻倍、Scale out带宽提4倍、存储访问速度提10倍;关联:调研第60条(光模块配比)、调研第63条(OCS需求)、调研第83条(TPU8T架构)

维度1:资金流向/技术面拆解

本条数据直接量化了TPU8T的性能提升幅度——带宽与存储的提升幅度远大于算力的提升幅度。Scale up带宽翻倍,Scale out带宽提升4倍,存储访问速度提升10倍,而单Pod算力仅提升3倍,这说明互联与存储已经成为制约训练性能的核心瓶颈。

从技术面来看,TPU8T的Scale out带宽提升至400GB/秒,意味着光模块必须从800G升级至1.6T才能满足带宽需求。关联调研第60条数据显示,TPU与光模块的配比约为1:2.5-1:3,1000万颗TPU对应2000-3000万个1.6T光模块,这将直接带动1.6T光模块的需求爆发。对比历史同类事件,2022年H100将光模块从400G升级至800G,带动中际旭创股价一年上涨了300%。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:算力不再是训练集群的核心瓶颈,互联与存储才是。在传统的认知中,算力是AI训练的核心,但随着单芯片算力的提升,芯片之间的数据传输速度已经跟不上算力的增长速度,成为了制约训练性能的核心瓶颈。

驱动互联与存储成为核心瓶颈的因素可分为三层:表层直接诱因是大模型参数规模的指数级增长,需要在更多的芯片之间传输大量的数据;中层技术原因是电信号的传输速度已经接近物理极限,无法满足更高带宽的需求,必须采用光信号传输;深层产业逻辑是MoE混合专家架构的普及,使得数据传输量呈指数级增长,对互联带宽的要求越来越高。

关联调研第83条数据显示,TPU8T采用升级版3D Torus环形拓扑,优化芯片间直连链路,就是为了解决互联瓶颈问题。历史相似案例可参考20世纪90年代,计算机的CPU性能提升速度远快于内存与硬盘的性能提升速度,导致内存与硬盘成为计算机性能的瓶颈。

引用经典理论"木桶效应理论",即一个水桶能装多少水,取决于它最短的那块木板。互联与存储就是当前AI训练集群的最短木板。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来3年内,光模块的速率将每18个月翻倍,从1.6T升级至3.2T、6.4T,互联技术在AI基础设施中的价值占比将从目前的30%提升至50%以上。核心观测指标为光模块的速率升级节奏,关键触发条件为:1)3.2T光模块实现大规模量产;2)CPO技术开始商用。

本条数据预判的核心局限性在于未考虑互联技术的突破性进展,若出现革命性的互联技术,可能会改变光模块的升级节奏。实操提示:重点关注高速光模块厂商,如中际旭创、新易盛等,这些企业将持续受益于光模块的速率升级。

洞察与启示

TPU8T的参数提升告诉我们,AI产业的竞争已经从单芯片算力的竞争转向了系统级互联能力的竞争。那些掌握了高速互联技术的企业,将在AI时代占据主导地位。投资者要重点关注互联技术相关的产业链环节。

(八)TPU8I的核心改进与架构更换原因

【观点】

Q:TPU8I(推理款)相比 V7 有哪些核心改进?网络架构为啥换了新的?

A:核心改进有几个:一是 pod 规模从 V7 的 256 卡扩到 1152 卡;二是 HBM 加到 288GB,片上 SRAM 到 384MB,是上一代 3 倍;三是 CPU 数量翻倍,服务器 CPU 侧载翻倍;四是 scale up 带宽也到 19.2TB / 秒,创新 Broad fly 网络架构,网络执行延迟降 50% 以上;五是加了片上集体加速引擎 CAE,片上延迟最多降 5 倍。换架构是因为原来的 3D 环面跳数多、延迟高,Broad fly 在机柜内做全连接,大幅降低芯片间通信跳数,网络指令减 56%,尾部延迟更低。

【多维度理论拆解】

数据锚点

本条数据核心数值:Pod规模扩至1152卡、SRAM提升3倍、CPU侧载翻倍、延迟降50%以上、片上延迟最多降5倍;关联:调研第63条(OCS需求)、调研第86条(TPU8I架构)、调研第101条(互联拓扑重构)

维度1:资金流向/技术面拆解

本条数据直接反映了推理芯片的核心设计目标——低延迟。TPU8I的所有改进都是围绕着降低延迟展开的,包括提升片上SRAM、增加CPU侧载、采用全新的Boardfly网络架构、加入片上集体加速引擎CAE。从性能提升来看,网络执行延迟降低50%以上,片上延迟最多降低5倍,这对于实时交互的AI应用来说是至关重要的。

从市场反应来看,这一改进得到了市场的高度认可,大会当日ARM股价大涨12.01%,就是因为TPU8I采用了ARM架构的定制CPU,CPU侧载翻倍。关联调研第63条数据显示,TPU8I推理集群规模扩大,OCS需求明显提升,这也是Coherent股价大涨的核心原因。对比历史同类事件,2018年苹果A12芯片将片上SRAM提升至8MB,大幅降低了内存访问延迟,提升了手机的响应速度。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:推理芯片的核心不是算力,而是延迟。对于用户来说,AI服务的响应速度比每秒能处理多少请求更重要。如果一个AI服务的响应时间超过3秒,用户的流失率将超过50%。

驱动推理芯片追求低延迟的因素可分为三层:表层直接诱因是用户体验的要求,实时交互的AI应用需要毫秒级的响应速度;中层技术原因是MoE模型的普及,每个token都需要在多个专家之间传输数据,通信延迟成为了推理延迟的主要组成部分;深层产业逻辑是AI应用正在从非实时的离线场景向实时的在线场景渗透,如智能客服、自动驾驶、实时翻译等,这些场景对延迟的要求极高。

关联调研第101条数据显示,TPU8I将互联拓扑从"邻居串门"式升级为"全员直连"模式,最多7跳即可到达任意芯片,传输效率比之前提升一倍。历史相似案例可参考20世纪90年代,局域网从共享式以太网升级为交换式以太网,大幅降低了网络延迟,提升了网络性能。

引用经典理论"用户体验至上理论",即产品的成功与否最终取决于用户体验。在AI服务中,低延迟是用户体验的核心,因此成为了推理芯片的首要设计目标。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来3年内,推理芯片的片上SRAM容量将每18个月翻倍,网络架构将全面向全互联方向演进,OCS光路交换机将成为推理集群的标配。核心观测指标为推理芯片的片上SRAM容量,关键触发条件为:1)英伟达Rubin推理芯片采用类似的架构;2)国内AI芯片厂商推出低延迟推理芯片。

本条数据预判的核心局限性在于未考虑模型压缩技术的进步,若模型压缩技术取得突破性进展,可能会降低对推理芯片硬件的要求。实操提示:关注OCS产业链与ARM CPU产业链的核心标的,如天孚通信、ARM Holdings等。

洞察与启示

TPU8I的核心改进告诉我们,不同的应用场景对硬件的要求是完全不同的。推理场景对低延迟的极致追求,推动了芯片架构与互联技术的革命性创新。只有深刻理解用户需求的企业,才能设计出真正有竞争力的产品。

(九)TPU V8与英伟达芯片的参数对比

【观点】

Q:TPU V8 和英伟达最新芯片、TPU V7 在硬件参数上对比情况如何?

A:HBM 方面,V8T 从 192GB 升到 216GB,V8I 到 288GB,和英伟达 Ruby 系列接近;SRAM 方面,V8T 还是 128MB,V8I 到 384MB,接近 LPU 的 500MB;存储带宽比 V7 略快,但和英伟达差距还大;服务端口速率从 6×112G 升到 6×224G,和英伟达持平;算力上和英伟达 B 卡可比,和 Ruby 系列仍有较大差距。

【多维度理论拆解】

数据锚点

本条数据核心结论:TPU V8在HBM、SRAM、端口速率上接近英伟达,算力与B卡可比,与Ruby仍有差距;关联:调研第111条(对英伟达的影响)、调研第112条(推理市场蚕食)、调研第113条(CSP自研芯片)

维度1:资金流向/技术面拆解

本条数据客观地对比了TPU V8与英伟达芯片的参数差距——TPU V8在内存与互联方面已经赶上英伟达,但在算力方面仍有差距。HBM容量与英伟达Ruby系列接近,SRAM接近LPU,服务端口速率与英伟达持平,说明谷歌在系统级设计方面已经达到了世界一流水平。

从市场反应来看,虽然TPU V8的算力不如英伟达Ruby系列,但市场依然给予了积极的反应,因为谷歌TPU主要是自用,不需要与英伟达在公开市场竞争。关联调研第111条数据显示,真正威胁英伟达的不是TPU产品本身,而是TPU验证的"训练/推理分叉"路线将被行业广泛采用。对比历史同类事件,2015年华为麒麟950芯片的性能与高通骁龙810接近,虽然仍有差距,但已经具备了与国际巨头竞争的能力。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:谷歌TPU的算力不如英伟达,但依然能够满足谷歌自身的需求,并且在某些方面表现更好。这一矛盾的本质是专用芯片与通用芯片的设计目标不同,专用芯片不需要追求极致的通用算力,只需要在特定场景下表现最优即可。

驱动谷歌能够用较低的算力实现较好性能的因素可分为三层:表层直接诱因是谷歌的芯片、硬件网络与软件是深度定制的,能够实现软硬件协同优化,充分发挥芯片的性能;中层技术原因是谷歌拥有自己的大模型,能够针对TPU的架构对模型进行优化,提升模型的运行效率;深层战略逻辑是谷歌自研TPU的核心目的是降低成本、构建差异化竞争优势,而不是在公开市场销售芯片与英伟达竞争。

关联调研第113条数据显示,CSP厂商纷纷开启自研芯片布局,达子的稀缺性逐渐稀释,不再是唯一核心选择。历史相似案例可参考2010年苹果自研A系列芯片,虽然性能不如同时代的高通骁龙芯片,但通过软硬件协同优化,获得了更好的用户体验。

引用经典理论"软硬件协同理论",即软件与硬件的协同设计能够大幅提升系统的性能与效率。谷歌TPU与Gemini模型的协同优化,是其能够用较低算力实现较好性能的核心原因。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,中确定性(70%概率) 预判未来3年内,CSP厂商的自研芯片将占据全球AI算力市场30%以上的份额,英伟达的市场份额将从目前的80%下降至50%左右。核心观测指标为CSP厂商自研芯片的部署量,关键触发条件为:1)微软Maia芯片大规模部署;2)亚马逊Trainium/Inferentia芯片的市场份额超过10%。

本条数据预判的核心局限性在于未考虑英伟达的技术进步,若英伟达推出性能更强的芯片,可能会延缓CSP自研芯片的进程。实操提示:关注CSP自研芯片的供应商,如博通、台积电等,这些企业将受益于CSP自研芯片的浪潮。

洞察与启示

TPU V8与英伟达芯片的参数对比告诉我们,在AI时代,单纯的算力已经不是唯一的衡量标准。软硬件协同优化、系统级设计能力变得越来越重要。CSP厂商凭借对自身业务的深刻理解,通过自研芯片实现差异化竞争,将成为未来的主流趋势。

(十)TPU V8升级对互联组件的影响

【观点】

Q:TPU V8 升级后,光模块、光路交换机、CPU、铜揽这些互联组件有哪些变化?

A:光模块:V7 用 800G,V8 全系列升级到 1.6T;V8T 光模块 / TPU 比例还是 1:1.5,V8I 比例小幅降到 1:1.25。光路交换机:V8T 集群小幅扩到 9600 卡,交换机从 300×300 升到 320×320,数量还是 48 个;V8I 推理集群规模扩大,光路交换机需求明显提升;scale out 网络扩到百万卡级别,光路交换机渗透率和用量都涨。CPU:V8I 的 CPU 侧载直接翻倍,用 ARM 架构定制 CPU,AI 场景 CPU 需求是核心增量,ARM 直接受益。铜揽:数量小幅增加,主要是速率从 112G 升到 224G 带来的需求提升。

【多维度理论拆解】

数据锚点

本条数据核心数值:光模块升级至1.6T、V8T配比1:1.5、V8I配比1:1.25、OCS端口升级至320×320、CPU侧载翻倍;关联:调研第60条(光模块市场空间)、调研第63条(OCS市场空间)、调研第62条(液冷市场空间)

维度1:资金流向/技术面拆解

本条数据直接量化了TPU V8升级对各互联组件的拉动效应——光模块与OCS光路交换机的需求增长最为显著,CPU次之,铜缆最小。光模块从800G全面升级至1.6T,价值量提升了一倍以上;OCS从训练集群渗透至推理集群,用量大幅增加;CPU侧载翻倍,带来了新的增量需求。

从市场空间来看,按照谷歌2027年1000万颗TPU的出货量计算,对应2000-3000万个1.6T光模块,市场空间约2000亿元;对应超5万台OCS,市场空间约500亿元;对应约16万个液冷机柜,市场空间超1000亿元。关联调研第60-65条数据详细列出了各环节的配比与市场空间,验证了这一测算。对比历史同类事件,2022年H100将光模块从400G升级至800G,带动全球光模块市场规模从100亿美元增长至200亿美元。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:TPU芯片的性能提升,反而带动了互联组件的价值量大幅增长。在传统的认知中,芯片性能的提升会降低对外部组件的需求,但在AI领域,芯片性能的提升反而会增加对互联组件的需求。

驱动这一现象的因素可分为三层:表层直接诱因是TPU芯片的带宽提升,需要更高速度的光模块与OCS来匹配;中层技术原因是MoE模型的普及,使得数据传输量呈指数级增长,对互联带宽的要求越来越高;深层产业逻辑是AI算力的增长已经从单芯片性能的增长转向了集群规模的增长,集群规模越大,对互联组件的需求就越多。

关联调研第66条数据显示,谷歌与英伟达都将OCS定位为未来AI工厂网络的核心架构方案,说明OCS已经成为行业共识。历史相似案例可参考20世纪90年代,个人电脑CPU性能的提升,带动了内存、硬盘、显卡等组件的需求增长,整个PC产业链的价值量大幅增加。

引用经典理论"正反馈循环理论",即系统的输出会反过来强化输入,形成正反馈。AI芯片性能的提升,带动了互联组件的升级,互联组件的升级又支撑了更大规模的AI集群,进一步推动了AI芯片的性能提升,形成了正反馈循环。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来3年内,全球光模块市场规模将保持50%以上的复合增长率,OCS市场规模将保持100%以上的复合增长率,成为光通信行业增长最快的细分领域。核心观测指标为1.6T光模块的出货量,关键触发条件为:1)中际旭创、新易盛宣布1.6T光模块大规模出货;2)谷歌宣布OCS的大规模采购计划。

本条数据预判的核心局限性在于未考虑CPO技术的商用进度,若CPO技术提前商用,可能会对传统光模块的需求造成一定的冲击。实操提示:重点关注1.6T光模块与OCS产业链的核心标的,如中际旭创、新易盛、天孚通信、光库科技等。

洞察与启示

TPU V8升级对互联组件的拉动告诉我们,AI产业的发展不是单一环节的发展,而是整个产业链的协同发展。互联组件作为AI集群的"血管",其重要性越来越突出,价值量也越来越高。投资者要充分认识到互联组件在AI产业中的核心地位。

(十一)谷歌大会在数据、安全、AI应用层面的新品更新

【观点】

Q:本次大会在数据、安全、AI 应用层面还有哪些重要新品更新?

A:数据层:推出 Agent Data Cloud,适配 AI agent 的数据使用模式,从被动响应变主动行动,建知识目录和业务上下文图,带动存储增量。安全层:落地新安全产品,和 320 亿美元收购的 Wiz 深度协同,能实时分析应用行为、调查威胁、协调云与 AI 安全权限。应用层:开放 Gemini Advanced Agent,26Q1 付费月活环比增 40%;推 Agent Marketplace 生态集成,低代码编排 agent,支持长时间运行智能体,和 Google Workspace、Microsoft 365 打通;还有 Workspace Intelligence,把 AI 融入 Gmail、Chat、文档、云端硬盘。

【多维度理论拆解】

数据锚点

本条数据核心结论:推出Agent Data Cloud、整合Wiz的AI安全产品、开放Gemini Advanced Agent与Agent Marketplace;关联:调研第12条(Wiz整合)、调研第13条(Agent生态进展)、调研第5条(token增长)

维度1:资金流向/技术面拆解

本条数据反映了谷歌AI战略的全面性——不仅在算力层发力,还在数据层、安全层、应用层全面布局,构建了完整的AI生态闭环。从用户数据来看,Gemini Advanced Agent的付费月活环比增40%,说明谷歌的AI应用已经获得了用户的广泛认可。

从市场反应来看,AI应用相关的IGF指数涨2.44%,反映了市场对谷歌AI应用生态的信心。关联调研第13条数据显示,谷歌Agent生态已经做到了模型、输入层、应用三层结合,是最早支持SOP Cloud Office 4.7的云厂商。对比历史同类事件,2008年苹果推出App Store,构建了完整的移动应用生态,开启了移动互联网的黄金时代。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:当所有人都在关注大模型的能力时,谷歌已经开始布局大模型落地的基础设施——数据与安全。这一矛盾的本质是大模型的商业化落地,不仅需要强大的模型能力,还需要可靠的数据治理与安全保障。

驱动谷歌布局数据与安全的因素可分为三层:表层直接诱因是企业在应用大模型的过程中,遇到了数据孤岛、数据安全、合规等问题,这些问题已经成为制约大模型落地的主要障碍;中层市场原因是谷歌云在与亚马逊AWS、微软Azure的竞争中,需要构建差异化的竞争优势,数据与安全是谷歌云的重要突破口;深层产业逻辑是AI产业已经进入商业化落地阶段,企业需要的不是一个孤立的大模型,而是一个完整的、安全的、能够与业务深度融合的AI解决方案。

关联调研第12条数据显示,现在不管是谷歌还是其他云厂商,都在加码AI安全,后续AI安全会成为行业核心关心方向。历史相似案例可参考2000年互联网泡沫破裂后,网络安全成为互联网产业的核心关注点,催生了赛门铁克、奇安信等网络安全巨头。

引用经典理论"木桶效应理论",即一个系统的整体性能取决于其最短的那块木板。数据与安全就是当前大模型商业化落地的最短木板。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来2年内,AI数据治理与AI安全的市场规模将保持100%以上的复合增长率,成为AI产业增长最快的细分领域之一。核心观测指标为企业级AI安全支出占比,关键触发条件为:1)全球AI安全市场规模突破1000亿美元;2)国内出台AI安全相关的法律法规。

本条数据预判的核心局限性在于未考虑数据与安全技术的标准化进程,若技术标准不统一,可能会影响市场的发展速度。实操提示:关注AI数据治理与AI安全领域的核心标的,如奇安信、深信服、星环科技等。

洞察与启示

谷歌在数据、安全、AI应用层面的布局告诉我们,大模型的竞争已经从模型能力的竞争转向了生态能力的竞争。只有构建了完整的生态,解决了数据与安全问题,才能真正实现大模型的商业化落地。投资者要关注AI生态各个环节的投资机会。

(十二)谷歌收购Wiz后的AI安全布局与行业趋势

【观点】

Q:谷歌重金收购 Wiz 后,AI 安全布局有啥新动作?行业趋势怎么看?

A:谷歌把 Wiz 和云、AI 产品深度整合,能在任意基础设施保护 AI 与云应用,实时调安全策略、收集云遥测信号评估威胁,还上了 Agent 化安全工作流、权限中心。现在不管是谷歌还是其他云厂商,都在加码 AI 安全,后续 AI 安全会成为行业核心关心方向。

【多维度理论拆解】

数据锚点

本条数据核心结论:谷歌将Wiz与云、AI产品深度整合,推出Agent化安全工作流;关联:调研第3条(320亿美元收购Wiz)、调研第11条(AI安全新品)、调研第12条(行业趋势)

维度1:资金流向/技术面拆解

本条数据直接反映了AI安全的重要性——谷歌花320亿美元收购Wiz,是其历史上第二大收购案,足以说明谷歌对AI安全的重视程度。从技术面来看,谷歌将Wiz与云、AI产品深度整合,形成了覆盖任意基础设施的AI安全解决方案,能够实时分析应用行为、调查威胁、协调安全权限,这是目前行业内最全面的AI安全解决方案。

从市场反应来看,AI安全板块在大会后普遍上涨,平均涨幅达4%。关联调研第12条数据显示,现在不管是谷歌还是其他云厂商,都在加码AI安全,后续AI安全会成为行业核心关心方向。对比历史同类事件,2015年赛门铁克以46.5亿美元收购Blue Coat,大幅提升了其在网络安全领域的竞争力,带动了整个网络安全板块的上涨。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:AI在带来巨大效率提升的同时,也带来了前所未有的安全风险。AI可以被用来发动更复杂、更隐蔽的网络攻击,AI系统本身也存在被攻击、被篡改的风险,这使得AI安全成为了一个亟待解决的问题。

驱动AI安全成为行业核心方向的因素可分为三层:表层直接诱因是AI安全事件的频发,如大模型被越狱、数据泄露、AI生成虚假信息等,给企业和社会带来了巨大的损失;中层监管原因是全球各国都在出台AI相关的法律法规,要求企业加强AI安全管理,合规压力越来越大;深层产业逻辑是AI正在渗透到各行各业,成为关键基础设施的核心组成部分,AI安全已经成为国家安全的重要组成部分。

关联调研第3条数据显示,谷歌在3月11日花320亿美元收购云与AI安全平台Wiz,就是为了补齐AI安全的短板。历史相似案例可参考2001年"911"事件后,全球国家安全支出大幅增长,带动了安防产业的爆发。

引用经典理论"风险与收益对等理论",即收益越高,风险越大。AI带来的巨大收益,必然伴随着巨大的安全风险,因此AI安全将成为一个永恒的主题。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(95%概率) 预判未来5年内,全球AI安全市场规模将从目前的100亿美元增长至1000亿美元,复合增长率达60%以上。核心观测指标为全球AI安全支出,关键触发条件为:1)欧盟AI法案正式实施;2)美国出台AI安全相关的行政命令。

本条数据预判的核心局限性在于未考虑AI安全技术的发展速度,若AI安全技术跟不上AI攻击技术的发展,可能会导致更多的安全事件。实操提示:提前布局AI安全板块,关注那些具有核心技术、能够提供全面AI安全解决方案的企业。

洞察与启示

谷歌对AI安全的重金投入告诉我们,安全是AI发展的底线。没有安全,AI的发展就无从谈起。随着AI的普及,AI安全将成为一个越来越重要的行业,蕴含着巨大的投资机会。

(十三)谷歌AI Agent生态的进展情况

【观点】

Q:谷歌 AI Agent 生态现在进展到哪一步了?

A:核心是做到模型、输入层、应用三层结合,是最早支持 SOP Cloud Office 4.7 的云厂商;主打能执行复杂多步骤、长时间运行的自主 agent;通过 Agent Marketplace 做生态,和 AI 应用厂商广泛合作;用统一收件箱做管理,支持个人到团队的企业级协作,还做了可追溯、可观测性能力,全面适配企业级 AI 落地需求。

【多维度理论拆解】

数据锚点

本条数据核心结论:谷歌Agent生态做到三层结合,推出Agent Marketplace,支持企业级协作;关联:调研第11条(Gemini Advanced Agent)、调研第4条(IGF指数上涨)、调研第5条(token增长)

维度1:资金流向/技术面拆解

本条数据直接反映了谷歌AI Agent生态的成熟度——已经从概念阶段进入了商业化落地阶段。谷歌Agent生态做到了模型、输入层、应用三层结合,能够执行复杂多步骤、长时间运行的自主任务,并且支持企业级协作与可追溯、可观测性,这些都是企业级应用的核心要求。

从用户数据来看,Gemini Advanced Agent的付费月活环比增40%,说明谷歌的Agent产品已经获得了用户的认可。关联调研第4条数据显示,AI应用相关的IGF指数涨2.44%,反映了市场对谷歌Agent生态的信心。对比历史同类事件,2013年微信推出公众号,构建了移动互联网的应用生态,催生了大量的创业机会与投资机会。

维度2:底层逻辑

本条数据暴露的核心反常识矛盾是:当所有人都在讨论通用人工智能(AGI)时,谷歌已经在落地能够解决实际问题的专用AI Agent。这一矛盾的本质是AGI还很遥远,而专用AI Agent已经能够为企业创造实实在在的价值。

驱动谷歌大力发展Agent生态的因素可分为三层:表层直接诱因是企业对自动化的需求越来越强烈,希望能够用AI Agent来替代人工完成重复性的工作,提升效率、降低成本;中层技术原因是大模型能力的提升,使得AI Agent能够理解复杂的指令、执行多步骤的任务、与人类进行自然的交互;深层产业逻辑是AI应用的下一个阶段就是Agent,Agent将成为人与AI交互的主要方式,也将成为AI价值变现的主要载体。

关联调研第11条数据显示,谷歌推Agent Marketplace生态集成,低代码编排agent,支持长时间运行智能体,和Google Workspace、Microsoft 365打通,这将大大降低Agent的开发门槛,吸引更多的开发者加入谷歌的Agent生态。历史相似案例可参考2008年苹果推出App Store,使得移动应用的开发门槛大幅降低,催生了数百万个移动应用。

引用经典理论"平台效应理论",即平台的价值与平台上的用户数量和开发者数量成正比。谷歌通过Agent Marketplace构建了一个Agent平台,将吸引大量的用户与开发者,形成强大的平台效应。

维度3:趋势与实操

基于本条数据与关联数据的交叉结论,高确定性(90%概率) 预判未来3年内,AI Agent将成为企业级AI应用的主流形态,全球AI Agent市场规模将突破1000亿美元。核心观测指标为AI Agent的企业渗透率,关键触发条件为:1)全球500强企业中超过50%使用AI Agent;2)Agent Marketplace的应用数量超过10万个。

本条数据预判的核心局限性在于未考虑Agent技术的成熟度,若Agent的可靠性与安全性达不到企业的要求,可能会影响其落地速度。实操提示:关注AI Agent开发平台与垂直行业Agent应用的核心标的。

洞察与启示

谷歌AI Agent生态的进展告诉我们,AI的未来不是一个无所不能的通用人工智能,而是无数个能够解决特定问题的专用AI Agent。AI Agent将像今天的APP一样,渗透到我们工作和生活的方方面面,改变我们的工作方式和生活方式。

三、结尾:把握谷歌TPU V8带来的万亿级产业链机遇

综上所述,谷歌Cloud Next '26大会是AI产业发展史上的一个里程碑事件。TPU V8首次拆分训练与推理专用芯片,标志着AI算力架构正式从通用时代进入专用时代。这一架构变革将重构整个AI产业链的价值分配,带动1.6T光模块、OCS光路交换机、液冷、ARM CPU、AI安全、AI Agent等环节迎来万亿级的市场增量。

谷歌将2026-2028年TPU总量大幅上修至5000万颗,为产业链的增长提供了坚实的支撑。1000万颗TPU对应2000-3000万个1.6T光模块、超5万台OCS、约16万个液冷机柜,仅谷歌一家的需求就足以带动整个产业链的爆发。同时,英伟达、微软、亚马逊等巨头都会跟进训练/推理拆分的技术路线,进一步放大市场需求。

对于投资者而言,本次大会明确了未来2-3年AI产业的投资主线:一是光互联产业链,包括1.6T光模块、OCS光路交换机、高速连接器等,这是最具确定性的投资方向;二是专用ASIC产业链,包括芯片设计厂商与代工厂;三是液冷产业链,TPU V8全系采用液冷配置,液冷市场空间超千亿;四是AI安全与AI Agent产业链,这是AI商业化落地的核心方向。

AI时代的大幕已经拉开,算力架构的变革正在催生巨大的投资机会。让我们一起把握这一历史性的机遇,布局核心产业链,分享AI产业发展带来的丰厚回报。

如果你觉得这篇文章对你有帮助,欢迎点赞、在看、收藏、转发,关注我们的账号,持续获取AI产业与投资的深度内容。

猜你喜欢

发表评论

发表评论: