公众号记得⭐️,第一时间看推送不会错过。
来 源 : 内容编译自cnbc,谢谢 。
据英伟达首席执行官黄仁勋称,英伟达的 Blackwell 系统销售额“远超预期”,但分析师认为定制人工智能芯片(即 ASIC)将快速增长。
这些体积更小、价格更低、功能更集中的人工智能芯片正由谷歌、亚马逊、Meta、微软和OpenAI等公司自主研发。
《芯片战争》一书的作者克里斯·米勒表示,谷歌的 TPU 是 AI 专用集成电路 (ASIC) 领域的领导者,有些人认为这些芯片在技术上与英伟达的 GPU 不相上下,甚至更胜一筹。
英伟达公司业绩远超预期,周三公布的财报显示,其图形处理器在人工智能工作负载方面表现出色,利润飙升。但其他类型的人工智能芯片也正在迅速崛起。
从谷歌到其他所有大型超大规模数据中心,所有主要超大规模数据中心都在设计定制ASIC(专用集成电路)。TPU到亚马逊的Trainium 和OpenAI与博通的合作计划这些芯片体积更小、价格更低、更容易获得,并且能够降低这些公司对英伟达GPU的依赖。Futurum Group的丹尼尔·纽曼告诉CNBC,他认为未来几年定制ASIC芯片的增长速度“甚至会超过GPU市场”。
除了GPU和ASIC之外,还有现场可编程门阵列(FPGA),这种芯片在制造完成后可以通过软件重新配置,用于各种应用,例如信号处理、网络和人工智能。此外,还有一整套人工智能芯片,它们为设备端而非云端的人工智能提供支持。高通,苹果还有一些人则大力支持这些设备端人工智能芯片。
CNBC采访了大型科技公司的专家和内部人士,分析了竞争激烈的人工智能领域以及市面上各种类型的人工智能芯片。
用于通用计算的GPU
GPU最初主要用于游戏,但随着其用途转向人工智能工作负载,英伟达一跃成为全球市值最高的上市公司。过去一年,英伟达出货了约600万块最新一代的Blackwell GPU。
2025 年 11 月 12 日,在加利福尼亚州圣克拉拉的英伟达总部,英伟达人工智能基础设施高级总监 Dion Harris 向 CNBC 的 Katie Tarasov 展示了 72 个 Blackwell GPU 如何在 GB200 NVL72 机架式 AI 服务器系统中协同工作。
从游戏到人工智能的转变始于2012年左右,当时研究人员利用英伟达的GPU构建了AlexNet,这被许多人视为现代人工智能的“大爆炸”时刻。AlexNet是一款参加过一项重要图像识别竞赛的工具。与其他参赛作品使用中央处理器(CPU)不同,AlexNet依靠GPU实现了惊人的准确率,并彻底击败了所有竞争对手。
AlexNet 的创建者发现,GPU 用于渲染逼真图形的并行处理技术同样适用于训练神经网络,在神经网络中,计算机通过数据学习,而不是依赖程序员编写的代码。AlexNet 展示了 GPU 的巨大潜力。
如今,GPU 通常与 CPU 搭配使用,并安装在服务器机架系统中,部署在数据中心,用于运行云端的 AI 工作负载。CPU 拥有少量功能强大的核心,用于执行顺序通用任务;而 GPU 则拥有数千个较小的核心,更专注于并行数学运算,例如矩阵乘法。
由于GPU可以同时执行多项操作,因此它们非常适合人工智能计算的两个主要阶段:训练和推理。训练过程教会人工智能模型从大量数据中学习模式,而推理过程则利用人工智能根据新信息做出决策。
GPU是英伟达及其主要竞争对手AMD的通用计算主力产品。软件是两大GPU领导者之间的主要区别。英伟达GPU围绕其专有软件平台CUDA进行了深度优化,而AMD GPU则主要使用开源软件生态系统。
AMD和Nvidia将其GPU出售给亚马逊、微软等云服务提供商。谷歌、甲骨文和CoreWeave这些公司随后按小时或分钟将GPU出租给人工智能公司。例如, Anthropic与英伟达和微软达成的300亿美元协议就包含了1吉瓦的英伟达GPU计算能力。AMD最近也获得了来自OpenAI和Oracle的大笔订单。
英伟达也直接向人工智能公司销售产品,例如最近与OpenAI达成协议,向其出售至少400万块GPU;此外,英伟达还向包括韩国、沙特阿拉伯和英国在内的外国政府销售产品。
这家芯片制造商告诉 CNBC,其一个装有 72 个 Blackwell GPU 的服务器机架售价约为 300 万美元,每周出货量约为 1000 个。
英伟达人工智能基础设施高级总监迪翁·哈里斯告诉 CNBC,八年前他加入英伟达时,根本无法想象会有如此大的需求。
他说:“当我们和人们讨论构建一个拥有八个GPU的系统时,他们认为这有点过头了。”
用于定制云人工智能的专用集成电路
在大型语言模型发展的早期阶段,GPU训练至关重要,但随着模型的成熟,推理变得越来越重要。推理可以在性能较低的、专为特定任务设计的芯片上进行。这就是ASIC芯片的用武之地。
GPU就像一把瑞士军刀,能够为不同的AI工作负载执行多种并行数学运算,而ASIC则像一个单一用途的工具。它非常高效快速,但其设计初衷是为一种类型的任务执行特定的数学运算。
谷歌于 2025 年 11 月发布了第七代 TPU Ironwood,距离其 2015 年推出首款用于人工智能的定制 ASIC 芯片已过去了十年。
《芯片战争》一书的作者克里斯·米勒说:“一旦它们被刻入硅片,你就无法更改它们,因此在灵活性方面存在权衡。”
英伟达的GPU具有足够的灵活性,足以被许多人工智能公司采用,但其价格高达4万美元,而且很难获得。尽管如此,初创公司仍然依赖GPU,因为据米勒称,设计定制ASIC的前期成本更高,起价为数千万美元。
分析人士表示,对于有能力承担定制ASIC芯片的大型云服务提供商而言,从长远来看,定制ASIC芯片是值得的。
纽森表示:“他们希望对构建的工作负载拥有更多控制权。与此同时,他们将继续与英伟达和AMD密切合作,因为他们也需要这些产能。市场需求如此旺盛,难以满足。”
谷歌是首家为人工智能加速定制专用集成电路(ASIC)的大型科技公司,并在2015年推出首款ASIC时创造了“张量处理单元”(Tensor Processing Unit,简称TPU)一词。谷歌表示,早在2006年就考虑过制造TPU,但直到2013年,随着人工智能将使其数据中心数量翻一番,这一需求才变得“迫切”。2017年,TPU也为谷歌发明Transformer架构做出了贡献,该架构为几乎所有现代人工智能提供支持。
在推出首款TPU十年后,谷歌于11月发布了第七代TPU。Anthropic宣布将使用多达100万个TPU来训练其LLM Claude模型。米勒表示,有些人认为TPU在技术上与英伟达的GPU不相上下,甚至更胜一筹。
米勒表示:“传统上,谷歌只将TPU用于内部用途。但很多人猜测,从长远来看,谷歌可能会更广泛地开放TPU的使用权限。”
继2015年收购以色列芯片初创公司Annapurna Labs之后,亚马逊网络服务(AWS)成为下一个自主研发人工智能芯片的云服务提供商。AWS于2018年发布了Inferentia,并于2022年推出了Trainium。预计AWS最早将于12月发布Trainium的第三代产品。
Trainium 的首席架构师 Ron Diamant 告诉 CNBC,亚马逊的 ASIC 芯片比 AWS 中的其他硬件供应商的芯片性价比高出 30% 到 40%。
“随着时间的推移,我们发现 Trainium 芯片能够很好地满足推理和训练工作负载的需求,”Diamant 说。
2025 年 10 月 8 日,CNBC 的 Katie Tarasov 手持亚马逊网络服务 (AWS) 的 Trainium 2 AI 芯片,该芯片将用于其位于印第安纳州新卡莱尔的新 AI 数据中心。
10 月,CNBC 前往印第安纳州,首次对亚马逊最大的 AI 数据中心进行了现场拍摄。Anthropic 正在该数据中心使用 50 万个 Trainium2 芯片训练其模型。AWS 的其他数据中心则配备了英伟达 GPU,以满足OpenAI 等 AI 客户的需求。
制造专用集成电路(ASIC)并非易事。正因如此,企业才会求助于芯片设计公司博通(Broadcom)。和马维尔米勒表示,他们“提供知识产权、专业知识和人脉网络”,以帮助客户构建他们的 ASIC。
“所以你们可以看到,博通公司尤其成为了人工智能热潮的最大受益者之一,”米勒说。
博通公司帮助谷歌构建了TPU和Meta芯片。OpenAI 的训练和推理加速器于 2023 年推出,并达成了一项新协议,从 2026 年开始帮助 OpenAI 构建自己的定制 ASIC。
微软也开始涉足ASIC领域,该公司告诉CNBC,其自主研发的Maia 100芯片目前已部署在美国东部的数据中心。其他厂商还包括高通(A1200)和英特尔。凭借其高迪人工智能加速器和特斯拉凭借其AI5 芯片,还有一大批初创公司全力投入定制 AI 芯片的研发,包括生产巨型全晶圆 AI 芯片的Cerebras ,以及专注于推理的语言处理单元的Groq。
在中国,华为、字节跳动和阿里巴巴都在生产定制的ASIC芯片,但对最先进的设备和人工智能芯片的出口管制构成了一项挑战。
基于NPU和FPGA的边缘AI
最后一大类人工智能芯片是专为设备而非云端运行而设计的。这些芯片通常集成在设备的主系统芯片(SoC)中。边缘人工智能芯片,顾名思义,能够使设备具备人工智能功能,同时还能帮助设备节省电池电量和空间,以便容纳其他组件。
“你可以在手机上直接完成这些操作,延迟非常低,所以无需与数据中心进行通信,”前白宫人工智能和半导体政策顾问赛义夫·汗表示。“而且你可以在手机上保护数据隐私。”
神经处理单元(NPU)是边缘人工智能芯片的主要类型之一。高通、英特尔和AMD都在生产NPU,这些NPU能够让个人电脑具备人工智能功能。
虽然苹果公司没有使用“NPU”(神经网络处理单元)这个术语,但其MacBook电脑内部搭载的M系列芯片确实包含一个专用的神经网络引擎。苹果公司还在最新的iPhone A系列芯片中内置了神经网络加速器。
“这对我们来说很高效,反应也很迅速。我们知道,我们对用户体验的掌控力更强了。”苹果平台架构副总裁蒂姆·米勒在9月份接受CNBC独家采访时表示。
最新的安卓手机在其主芯片高通骁龙芯片中也内置了NPU,三星的Galaxy手机也配备了自家的NPU。NXP和英伟达等公司的NPU则为汽车、机器人、相机、智能家居设备等嵌入式人工智能提供动力。
“大部分资金都流向了数据中心,但随着时间的推移,这种情况将会改变,因为我们将把人工智能部署到我们的手机、汽车、可穿戴设备以及各种其他应用中,其应用程度将比现在高得多,”米勒说。
此外,还有现场可编程门阵列(FPGA),它可以在制造完成后通过软件进行重新配置。虽然FPGA比NPU或ASIC灵活得多,但其原始性能和能效在AI工作负载方面都较低。
2022 年,AMD 以 490 亿美元收购了 Xilinx ,成为最大的 FPGA 制造商;英特尔凭借2015 年以167 亿美元收购 Altera位居第二。
这些设计人工智能芯片的公司都依赖一家 公司来生产 所有芯片:台积电。
台积电在亚利桑那州新建了一座巨型芯片制造厂,苹果公司已承诺将部分芯片生产转移到那里。去年10月,英伟达首席执行官黄仁勋也表示,Blackwell GPU在亚利桑那州已全面投产。
尽管人工智能芯片领域竞争激烈,但要撼动英伟达的霸主地位并非易事。
纽曼说:“他们之所以能取得现在的地位,是因为他们凭借实力赢得了它,并且为此付出了多年的努力。他们已经赢得了开发者生态系统的胜利。”
参考链接
https://www.cnbc.com/2025/11/21/nvidia-gpus-google-tpus-aws-trainium-comparing-the-top-ai-chips.html
上一篇:工银瑞信基金高管调整,新任总经理、副总经理均来自工行
下一篇:没有了