首页新鲜数据电子行业:谷歌IRONWOOD构建AI推理工厂 与BLACKWELL形成差异化竞争

电子行业:谷歌IRONWOOD构建AI推理工厂 与BLACKWELL形成差异化竞争

时间2025-04-10 19:20:55浏览16

电子行业:谷歌IRONWOOD构建AI推理工厂 与BLACKWELL形成差异化竞争

事件:
2025 年4 月9 日,谷歌在Cloud Next 大会上正式发布其第七代张量处理单元(TPU v7),代号"Ironwood"。与前代Trillium 相比,TPU v7 在性能与能效方面提升达两倍,并针对大模型推理任务进行深度优化。
点评:
Ironwood 集群跻身全球最快推理平台,专为LLM 与MoE 优化。Ironwood 最多可支持9,216 颗TPU 芯片组成集群,峰值算力达42.5 ExaFLOPS,为当前已知全球最快的AI 推理平台之一。TPU v7 延续并加强了SparseCore、HBM 高带宽内存及芯片间光互联(ICI)设计,专为运行大型语言模型(LLM)与专家混合模型(MoE)优化。
Google 通过Ironwood 强化AI 芯片布局,借推理优势提升云服务吸引力。谷歌推出AI 芯片Ironwood,持续加码与NVIDIA 等竞争对手的芯片竞赛。但不同于英伟达的对外销售策略,Ironwood 仅用于Google 内部或通过其云服务对客户开放,未向市场直接销售。我们观察到,无论是大模型训练还是AI 加速卡,当前的发展趋势正逐步向推理侧倾斜,Llama 4 的发布便是典型案例,其核心优化集中在推理性能上。
我们认为,Google 正通过“硬件+云服务”的绑定策略在推理领域抢占先机:由于Ironwood 无法单独采购,客户必须通过Google Cloud 才能使用其推理能力,这有望显著增强Google 云服务的吸引力,并在未来推理需求爆发的背景下带动云业务增长。
TPU v7 专注推理, Blackwell 专注通用AI 加速。尽管TPU v7 在推理速度上实现突破,但其定位与NVIDIA 于2024 年推出的Blackwell 架构(如B200、GB200)存在本质差异。TPU v7 以推理为核心任务,仅在Google Cloud 内部部署,支持Gemini 等大模型的商业化运行; Blackwell 架构则提供从FP4 到FP64 的完整精度支持,兼顾训练与推理,面向通用AI 应用,并可广泛部署于AWS、Azure 等商用云平台。
TPU v7 打造“推理工厂”,Blackwell 凭通用性胜出。从算力层面看,TPU v7 集群可提供高达42.5 ExaFLOPS 的峰值推理性能,折算单颗TPU 约为4.61 PFLOPS;而NVIDIA GB200 单卡推理算力达到20 PFLOPS(FP4),其NVL72 整机架系统最高可实现1.44 ExaFLOPS。尽管TPU 在总算力上具备一定优势,但NVIDIA 在精度灵活性、商业可获得性、以及开发者生态方面处于领先地位,具备更广泛的应用适配性。我们认为,TPU v7(Ironwood)集群更像一座专为推理打造的“AI 推理工厂”,在特定场景下效率极高;而Blackwell 架构则如一座通用型“高端AI 工厂”,既能胜任训练,也擅长推理,适用于更全面的AI 部署需求。
风险提示:1)AI 需求不及预期;2)地缘政治环境干扰供应链;3)AI 数据中心建造放缓

本文来源转载:

国防军工:需求、技术、政策共振 无人化物流发展正当时 山证通信2025年投资策略:云上铜光星辰大海 AI物联网企绘未来