发现最好的AI产品 - OKRVVAI导航站

KV Cache需求暴涨32倍,AI如何重写存储产业链的「旧分工」?| MemoryS 2026观察

作者 | 杨依婷编辑 | 包永刚去年的CFMS|MemoryS峰会上,存储厂商们讨论的是:价格何时企稳、QLC何时上量、AI PC何时落地。彼时,“AI会让存储变得更基础、更关键”,还更像是一种行业判断,一种面向未来的趋势预演。一年之后,站在MemoryS 2026的会场里,问题已经彻底变了。人们谈论的不再只是位元成本、颗粒供给和容量节奏,而是GPU利用率、token成本、系统调度效率,甚至物理AI场景中的实时决策能力。那些原本属于AI基础设施和系统架构层面的议题,正在越来越频繁地出现在存储产业的讨论中心。在传统计算架构里,存储的职责更多是“存”。数据被写入、留存,在需要时调取,不需要时则静静停留在系统边缘。它长期是BOM成本中的一项,是容量规划的问题,而很少直接参与算力效率的定义。但在大模型训练与推理时代,这一角色被彻底改写。KV Cache的访问延迟,开始直接影响token生成速率;Checkpoint的写入效率,决定着GPU在训练过程中的等待时间;SSD的IOPS密度,则进一步

来源: 雷锋网

聚合资讯

此资讯为聚合内容,请访问原始来源阅读完整内容

阅读原始内容

来源:雷锋网

评论 (0)

登录后可以发表评论