字节跳动算力需求激增,豆包大模型引领AI产业发展
AI导读:
字节跳动算力需求强劲,豆包大模型快速迭代,应用场景不断拓展。市场预计豆包大模型将推动人工智能产业加速发展,算力、AI应用及大模型等环节有望受益。
据The Information报道,字节跳动计划于明年斥巨资70亿美元(折合人民币约511亿元)采购英伟达芯片,但该消息随即遭到字节跳动发言人的否认,称相关报道“不实”。
然而,市场对字节跳动算力需求的强劲预期并未因此削弱。根据Omdia最新数据,字节跳动已成为英伟达在中国乃至亚洲地区人工智能芯片的最大买家。
在英伟达芯片采购方面,微软以2024年订购48.5万枚Hopper芯片的数量位居榜首,字节跳动和腾讯则以各约23万枚的订单量紧随其后,位列第二。
自今年5月字节跳动发布豆包大模型以来,其已迅速迭代出Doubao-pro、Seed-Music、视频生成模型及视觉理解模型等多项成果,并在语言能力、多模态理解与生成、模型推理及代码生成等方面实现显著提升。
近日,字节豆包大模型公布了2024年全领域技术进展,最新版Doubao-pro-1215已支持超过50个C端应用场景,并通过火山引擎服务了30多个行业,日均tokens调用量高达4万亿,较发布之初增长了33倍。
据海通证券12月30日研报指出,豆包大模型通用模型能力已与GPT-4全面对齐,且在FlagEval模型评测的“对话模型”榜单中,豆包-pro32k版本已荣登榜首。
随着豆包家族性能的不断提升,其应用场景也在持续拓展,算力需求也随之激增。字节跳动火山引擎智能算法负责人吴迪曾预测,到2027年,豆包每天的Token消耗量将超过100万亿,是当前的100倍以上。民生证券预计,到2025-2026年,豆包大模型对H20芯片的需求将达到181万枚。
从资本开支角度看,浙商证券认为,国内算力需求的爆发期已经到来,字节跳动在AI领域的投入巨大,2024年资本开支高达800亿元,接近百度、阿里、腾讯三家总和(约1000亿元),研发投入显著领先于同行业。
该券商进一步预测,到2025年,字节跳动的资本开支有望攀升至1600亿元,用于打造自主可控的大规模数据中心集群,其中约900亿元将用于AI算力的采购,700亿元则用于IDC基建及光模块、交换机等网络设备的投入。
从投资角度来看,国海证券12月30日研报指出,豆包大模型有望成为继ChatGPT之后的又一重量级产品,预计将推动人工智能产业加速发展,算力、AI应用及大模型等环节有望受益。
(文章来源:科创板日报,图片来源于网络)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。