英伟达推出LPU大举进攻推理芯片市场
AI导读:
英伟达推出Vera Rubin平台及Groq 3 LPU,大举进攻推理芯片市场。据悉,到2027年底Blackwell和Rubin两条产品线的年收入将达1万亿美元。同时推出Groq LPX和Vera Rubin DSX AI工厂参考设计。
AI产业的风向变了。前几年,所有人都在拼命“训模型”——把数据喂给GPU,等它长出智能,那时候,英伟达的GPU是唯一的王,谁也撼不动,但这两年,智能体成群结队地涌向市场,Manus出圈,OpenClaw刷屏,模型厂商和云服务商开始靠卖token赚钱,Cerebras们举着“更快、更便宜”的旗号,在英伟达霸占多年的版图上撕口子。
业界终于意识到:训练还在继续,但“推理”已经成为主流。英伟达自然不会错失这一市场机遇,推理这块蛋糕,它也要切一刀。3月17日凌晨,在GTC 2026上,英伟达CEO黄仁勋亮出新武器——Groq 3 LPU,大举进攻推理芯片市场。同时他甩出一组数字:到2027年底,Blackwell和Rubin两条产品线的年收入将达1万亿美元,比半年前的预测翻了一倍。
这次英伟达正式推出Vera Rubin平台,共搭载7款芯片,分别是Rubin GPU、Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 Switch、Spectrum-X 102.4T CPO,以及新集成的Groq 3 LPU。
“LPU”全称为“Language Processing Unit”,即语言处理单元,是一款专用的AI推理加速芯片。Rubin GPU结合Groq LPU,将把当下每秒100个token的吞吐量,推向每秒1500个token甚至更多,从而完美支撑AI智能体交互场景。
英伟达还推出了一个专用于容纳新型Groq加速器的完整机架——Groq LPX。据英伟达超大规模与高性能计算副总裁Ian Buck介绍,Groq LPX将提升“每个令牌上AI模型每一层”的解码性能,并使Rubin能够服务于人工智能的下一个前沿领域:多智能体系统,这些系统需要在推理数万亿个参数的模型的同时,在数百万个token的上下文窗口中提供交互式性能。
英伟达对推理芯片市场的觊觎并非始于今日,而是早有准备。2025年12月,该公司就以约200亿美元的价格收购Groq的核心技术资产,其创始人加入英伟达,Groq 3 LPU是收购后首个公开成果。
基于高盛全球投资研究部的模型预测,在AI服务器的AI芯片中非GPGPU芯片的出货占比将呈现明确上升趋势,预计将从2024年的36%逐步增长至2027年的45%,而GPGPU芯片的出货占比预计将从2024年的64%逐步下降至2027年的55%。
InSemi Research高级分析师秦丰伟向本报记者介绍道,GPU在基座大模型训练、通用性要求更高的场景(如公有云)、并行计算场景会更有竞争力,而ASIC(包括TPU、DPU、NPU、LPU等)在模型部署阶段、在推理场景下相对更有优势,因为这些场景对能效比、响应延迟等方面要求更高。
“所以英伟达推出LPU,是应对AI算力需求从‘训练’转向‘推理’的战略性布局,这是补齐短板的一步关键棋。它用更精细化的产品布局,回应了市场变化和竞争对手的挑战。”深度科技研究院院长张孝荣对本报记者说。
据媒体报道,英伟达应对日益增长的推理需求的计划已为其带来了回报,OpenAI上月表示,已与英伟达达成协议,将采购具有“专用推理能力”的芯片。
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

