AI导读:

中信证券研报指出,AI的演进使得上下文长度激增,显存需求爆发。尽管大模型厂商和硬件厂商通过优化手段解决存力瓶颈,但总存力需求不减反增。显存优化将降低单Token生成成本,进一步刺激用户开启更高并发与更长上下文。中信证券看好存储成长趋势。

每经AI快讯,中信证券研报称,AI从“简单对话”向“智能体(Agent)”演进,驱动上下文长度激增。据Epoch AI数据,最长上下文窗口约每年增长30x,KV Cache显存容量和上下文长度呈线性增长关系,远超硬件配置增速。目前大模型厂商、硬件厂商主要通过量化、分层存储、模型架构优化的方式解决存力瓶颈,但仍不改显存需求爆发。中信证券认为,显存优化有望降低单Token生成成本,进而刺激用户开启更高并发与更长上下文,总存力需求将不减反增,存力升级为当前Agent推理核心需求,坚定看好存储成长趋势。