字节跳动算力需求高涨,豆包大模型引领AI发展
AI导读:
字节跳动虽澄清购买英伟达芯片报道不实,但市场对字节跳动算力需求预期仍高。字节跳动豆包大模型技术进展迅速,应用场景不断拓展,算力需求攀升。字节跳动在AI领域投入巨大,未来资本开支有望大幅增长。
据The Information报道,字节跳动计划于明年投入巨资约70亿美元(折合人民币约511亿元)采购英伟达芯片,但字节跳动发言人迅速澄清称,该报道内容“不实”。
尽管存在上述澄清,市场对于字节跳动在算力需求方面的强烈预期并未因此减弱。
根据Omdia发布的数据,字节跳动已成为英伟达在中国境内的最大AI芯片买家,甚至在整个亚洲市场也占据领先地位。而在全球范围内,微软在2024年订购的英伟达Hopper芯片数量高达48.5万枚,位居首位,紧随其后的是订购量各约23万枚的字节跳动和腾讯。
自今年5月字节跳动发布豆包大模型以来,已陆续完成了包括Doubao-pro、Seed-Music在内的多项更新,涵盖视频生成、视觉理解等多个领域。其语言能力、多模态理解与生成、模型推理及代码生成能力均得到了显著提升。
近日,字节跳动豆包大模型披露了2024年全领域技术进展,最新版的Doubao-pro-1215通用模型已支持超过50个C端应用场景,并通过火山引擎服务于30多个行业,日均tokens调用量突破4万亿,相比5月发布时增长了33倍。
据海通证券12月30日的研报分析,豆包大模型的通用模型能力已全面达到GPT-4水平。在FlagEval模型评测的“对话模型”榜单中,豆包-pro32k版本更是位居榜首。
随着豆包家族性能的不断提升,其应用场景也在持续扩展,算力需求也随之攀升。据字节跳动火山引擎智能算法负责人吴迪透露,预计到2027年,豆包每天的Token消耗量将超过100万亿,是当前水平的100倍以上。民生证券预计,到2025-2026年,豆包大模型将至少需求181万枚H20芯片。
从资本开支角度看,浙商证券指出,国内算力需求的爆发期已经到来。字节跳动在AI领域的投入巨大,2024年的资本开支高达800亿元,接近百度、阿里、腾讯三家公司总和(约1000亿元),其研发投入也显著领先于同行业其他公司。
该券商进一步预测,到2025年,字节跳动的资本开支有望达到1600亿元,主要用于打造自主可控的大规模数据中心集群。其中,约900亿元将用于采购AI算力,而剩余的700亿元则用于IDC基建以及光模块、交换机等网络设备的采购。
从投资角度来看,国海证券12月30日的研报认为,豆包大模型有望成为继ChatGPT之后的又一重量级产品,有望带动整个人工智能产业的加速发展,算力、AI应用以及大模型等环节都将从中受益。
(文章来源:科创板日报)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。