计算机:阿里巴巴自研AI芯片的增量在哪里?
beiqi
热点新闻
8
阿里巴巴在FY26Q1 业绩电话会上表示:将在未来三年持续投入3800 亿元用于AI 资本开支,虽单季投资额会因供应链因素有所波动,但整体节奏不变。同时,公司表示:已为全球AI 芯片供应及政策变化准备“后备方案”,通过与不同合作伙伴合作,建立多元化的供应链储备,从而确保3800 亿元投资计划能够如期推进。 阿里自研芯片的目标:阿里自研AI 芯片主要是为了满足自身在AI 领域的推理需求,直接控制芯片的设计和生产成本,减少对外部供应商的依赖。阿里于2019 年推出AI 推理芯片含光800,作为一款云端AI 推理芯片,峰值性能为7.8 万IPS(每秒能处理7.8 万张照片),峰值能效达到500IPS/W。含光800 在部分数据指标上超越英伟达T4、P4 等推理芯片。达摩院计算技术实验室也于2021 年成功研发了使用混合键合3D 堆叠技术实现存算一体的芯片。 大厂自研AI 芯片的难点:近年来,由于GPU 产品在供给端一定程度上受到供应商的限制,头部的云服务大厂出于降低成本、更好地适配自身业务场景的考虑,增大了自研AI 芯片的部署数量。但自研芯片的前提是自身有较大的需求量,能够分摊芯片研发成本,若需求有限,那么平均到单颗芯片的成本将会较大幅度上升。由于大厂在短时间内难以形成有足够技术和经验积累的团队,往往将后端物理实现交给以博通、Marvell 为代表的芯片设计服务企业。 阿里的推理需求:2025 年4 月29 日,阿里巴巴旗下通义千问团队正式发布并开源新一代模型Qwen3。Qwen3 系列涵盖了多个模型类型,包括2 款参数规模为30B 和235B 的混合专家(MoE)模型,以及6 款参数从0.6B 到32B 的密集模型。Qwen3 部署成本较低,Qwen3-235B-A22B(推理激活22B参数)只需要4 张H20,而其小模型的部署成本则更低。目前,阿里自研AI 芯片主要面向如智能客服、语音助手、AI 搜索等推理场景。 上下游哪些板块有增量:数据中心作为能耗大户,其PUE(电源使用效率)值受到政策与成本的双重约束。液冷技术(尤其是冷板式、浸没式)能够显著降低散热能耗,将PUE 轻松压降至1.1-1.2 的超低水平,远优于风冷的1.5 以上。此外,AI 数据中心的功耗正在从传统的每机架20 kW-30 kW 快速跳升。英伟达的满配NVL AI 服务器机柜功率或将突破100kW。 我们认为:在大厂加大AI 芯片投入的背景下,电源、液冷等领域有望获得新的增量空间,与大厂存在较强商业绑定关系的行业龙头有望充分受益。 风险提示:下游需求不及预期;新技术落地和商业化不及预期;宏观经济不及预期。 【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。
【广告】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。邮箱:
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。
还木有评论哦,快来抢沙发吧~