华为昇腾910C扩产:国产AI算力的战略再加速


背景速览:AI算力竞争进入量产阶段

全球AI基础设施的竞争已从模型能力转向算力部署速度。随着大模型在工业、金融与公共服务中的落地加速,推理场景对本地算力的需求迅速攀升。根据中国信通院最新测算,2025年国内AI推理算力需求同比增速超过55%,AI服务器出货量有望突破120万台套。在这一时间节点,华为确认将把昇腾910C芯片的年产量提升至60万枚,相当于2024年的两倍,这一消息意味着国产高端AI芯片开始从“工程样机阶段”迈入“规模化交付”阶段。

昇腾910C是昇腾全栈体系面向训练和高性能推理的核心器件,采用异构计算架构,集成了矩阵计算单元Cube、AI Core和高带宽内存通道,单卡算力可达320 TOPS INT8/640 TOPS FP16。得益于华为自研的CANN编译栈与MindSpore框架,910C已在多个行业场景中完成“软硬协同”验证,包括大规模语音识别、工业视觉质检、金融风控模型训练等。此次扩产的战略意义不仅在于芯片本身,更在于围绕其构建的软硬件生态链条将迎来新一轮的体量扩张。

核心进展:60万枚产能带来的供给侧变化

60万枚芯片意味着至少10万台以昇腾910C为核心的AI服务器出货能力,可覆盖约1500个千卡级别的数据中心机架。结合华为此前披露的昇腾Atlas 900 SuperCluster、昇腾AI计算中心等整机方案,这一产能扩张将推动以下变化:

  • 产线成熟度提升:昇腾910C采用7nm级别工艺,由国内代工厂提供晶圆服务。量产规模翻倍将促进代工、封测环节的良率迭代,进一步降低单位算力成本。
  • 区域算力中心复制:在粤港澳、长三角、成渝等区域已落地的昇腾AI算力中心将有能力扩容到多万卡级别,为大模型训练和推理提供稳定算力。
  • 行业专用加速卡迭代:华为在自动驾驶、智慧矿山、精细制造等行业的Atlas专用加速卡将同步更新,910C的高带宽、高能效特性允许在边缘数据中心运行更复杂模型。

技术与产业影响:自主可控走向纵深

昇腾910C扩产带动的不仅是单一芯片产能,而是整个国产AI算力栈的系统性跃迁:

  1. 编译栈成熟度:CANN 8.x版本已支持主流Transformer、MoE、Diffusion架构,配套算子覆盖率超过95%。规模化部署将进一步丰富算子库与性能调优策略,降低应用迁移门槛。
  2. 数据中心方案国产化:配合自研昇腾网卡、鲲鹏CPU与高性能交换机,910C可构成端到端国产AI算力方案,帮助政务、能源等行业满足数据安全与自主可控要求。
  3. 生态伙伴扩围:当前已获得昇腾适配认证的ISV超过600家,覆盖智慧城市、医影、金融风控等赛道。大规模供货将使SaaS/IaaS伙伴敢于制定长期产品路线图,形成“芯片—平台—行业应用”三层生态闭环。

风险与挑战:工艺、软件与市场的三重压力

尽管扩产释放出积极信号,但仍需审视潜在挑战:

  • 先进工艺可持续性:910C依赖国内代工厂的N+2工艺和多重EUV替代方案,持续扩大产能需要稳定的设备、材料供给,尤其是高端光刻胶、特种气体的国产替代仍在推进中。
  • 软件生态竞争:国际生态在CUDA体系下已形成强网络效应,国产算力要争夺开发者心智,必须在开发工具链、算子性能、迁移成本上持续突破,避免“硬件好用但软件难迁”的瓶颈。
  • 市场优先级博弈:60万枚的供给如何在政企、互联网大厂、科研机构之间分配,将考验华为的渠道策略。若不能兼顾公共算力需求与商业回报,可能引发算力资源错配。

战略建议:从“算力孤岛”走向“算力网络”

要让昇腾910C扩产释放最大边际效应,需要产业上下游协同推进:

  1. 构建算力调度网络:依托国家算力枢纽工程,将910C算力节点纳入统一调度平台,实现跨区域、跨行业的算力互济,提升整体利用率。
  2. 推进行业模型共建:鼓励央企、头部工业企业与华为共建行业大模型训练中心,形成“数据—模型—算力”的闭环资产,抵御ChatGPT系模型在垂直领域的扩张。
  3. 强化开源生态:持续推动MindSpore、AscendNPU社区开源,提供与PyTorch生态的双向兼容工具,降低算法团队迁移成本。
  4. 完善供应链金融支持:对参与昇腾生态的中小供应商提供算力券、融资租赁等政策工具,缓解产能扩张的现金流压力。

参考事件

  • 《华为拟明年生产约60万枚昇腾910C芯片,产量约为今年两倍》,RFI,2025年9月29日。
  • 工信部数字中国建设进展新闻发布会,2025年9月18日。

文章作者: 张显达
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 张显达 !
  目录