集成存储破局,江波龙抢占端侧AI存储先机
- +1 你赞过了
【天极网DIY硬件频道】3月27日,全球存储产业链的精英们聚集在深圳, 共赴 CFM|MemoryS 2026 行业盛会。与会方在深度交流碰撞中,凝聚起一个产业共识:AI的战场,正从云端“烧”向每一台PC、每一部手机、甚至每一块手表和眼镜。端侧AI规模化的落地,是对存储性能的极致压榨:高速、大容量、低延迟、小尺寸、定制化——这不再是锦上添花的选项,而是决定端侧AI能否真正落地的关键所在。当AI的潮水涌向终端,一场存储产业的升级变革已悄然开启。

江波龙董事长蔡华波发表演讲
在CFMS 2026的舞台上,江波龙董事长蔡华波发表了题为《集成存储探索端侧AI》的主旨演讲。与其说这是一场产品发布会,不如说这是一份面向产业变局的“解决方案白皮书”。江波龙试图回答一个核心问题:在标准存储产品无法满足需求的“后摩尔时代”,如何通过“集成存储”的模式创新与技术闭环,为海量端侧AI设备“量身定制”存储方案,从而穿越这场由AI引发的周期迷雾?天极网通过采访江波龙副总裁、嵌入式存储事业部总经理黄强以及江波龙副总裁、企业级存储事业部总经理闫书印两位高管,为大家带来一手硬核信息。
一:新品与新定义——从“标准件”到“集成方案”的跃迁
本次峰会上,江波龙首次发布了其面向端侧AI的全新存储芯片SPU(Storage Processing Unit存储处理单元),以及配套的新一代高速存储介质PCIe Gen5 mSSD。这不仅是两款产品,更是其“集成存储”理念的硬件载体。
性能的重新锚定
与市面上标准化的SSD主控不同,SPU被定位为一款“为智能存储架构打造的专用处理单元”。其核心突破在于两点:超大容量与存内智能。

常规消费级SSD容量上限通常在8TB,而SPU支持的单盘最大容量达到了惊人的128TB。在访谈中,闫书印解释,这并非单纯追求数字,而是为了满足端侧AI催生的“温数据”海量处理场景。“端侧未来更多会出现温数据的应用场景……他们彼此契合。”这意味着,SPU瞄准的是介于高频访问的热数据和极少访问的冷数据之间的、规模庞大的温数据池,为本地化大模型提供了堪比硬盘的低成本“内存池”。
而“智能”则体现在其存内无损压缩和HLC(高等级缓存) 技术上。SPU可实现平均2:1的数据压缩比。这不仅直接节省了宝贵的存储空间,更相当于变相提升了有效带宽。HLC技术则允许将部分原本需放在昂贵DRAM中的“温数据”智能下沉至SSD,从而“节省近40%的DRAM容量需求”。在访谈中,黄强用一个更直观的例子说明了其价值:在AMD锐龙AI平台的智能主机上优化后,可以运行高达397B的大模型,支持256K超长上下文(122B)场景,可将DRAM占用降低近40%。
形态的极限探索
与SPU配套发布的,是采用全封装设计的新一代高速存储介质PCIe Gen5 mSSD。其保持20x30mm的超小尺寸,却实现了最高11GB/s的顺序读取速度。面对PCIe Gen5带来的巨大散热挑战,江波龙没有妥协于“大散热马甲”,而是将VC相变液冷散热方案集成到mSSD上。实测数据显示,其高效散热方案将峰值性能维持时间提升至181秒,连续读取容量达到1991GB,是常规方案的近2.5倍。

“这对于AI PC这种应用场景,确实是一个很好的选择。”闫书印在访谈中表示。这背后体现的,正是“集成存储”对终端产品形态的深度理解:性能不能以牺牲设备的轻薄为代价。
应用场景的精准卡位
这些技术并非空中楼阁。AI PC的KV Cache高负载、AI手机的多模态实时处理、机器人的环境感知与决策、AI穿戴设备的全天候低功耗感知……这些场景对存储的需求各异,但共同点都是“非标”。江波龙正通过软硬件协同,为这些场景提供从芯片、产品到散热的定制化集成方案。特别是对于新兴的机器人市场,闫书印在访谈中表示,其存储介质mSSD产品正是为“热门的机器人赛道需求准备的产品”。
二:技术内核——“存储智能体”如何重构成本与体验
如果说SPU和mSSD是“硬”实力的展现,那么“存储智能体”iSA与HLC技术,则是驱动这套硬件发挥最大效能的“软”灵魂。这也是江波龙表示能“减少DRAM使用且不影响用户体验”的关键。
从“被动仓库”到“主动管家”
传统的存储是“被动”的,主机要什么数据,它才去查找、搬运。而在端侧AI时代,尤其是运行大模型时,动辄数百GB的模型参数和快速膨胀的KV Cache(键值缓存),对I/O延迟和带宽提出了噩梦般的挑战。
江波龙的解法是iSA(Intelligence Storage Agent,存储智能体)。你可以将它理解为一个运行在存储控制器上的“AI调度员”。它的核心工作,是对数据进行更加细致的识别,并分为热、温、冷数据,进行智能管理与预取。
“在之前的环境下,大家并没有进行这样的分类……目前在存储内存成本高企的情况下,首先我们对数据进行区分识别,然后评估它的活跃度,来进行对于它存储的处理。” 闫书印在访谈中如此解释。
具体到技术,iSA通过MoE(混合专家)模型专家卸载、KV Cache智能管理与智能预取算法,动态地将不急需的专家层或历史KV Cache从DRAM“卸载”到由SPU管理的、大容量的SSD存储层中。当需要时,又能快速预取回来。这个过程对应用和用户是无感的,但结果却大幅降低了对DRAM容量和带宽的依赖。
HLC高级缓存技术,成本与流畅体验的完美平衡
这项技术的商业价值直指“降本”。在DRAM价格高企的当下,减少近40%的DRAM使用意味着巨大的BOM成本节约。这对于价格敏感的中端乃至入门级AI设备普及,意义重大。

江波龙通过4GB运存+HLC技术,实现达到甚至超过6GB常规运存的性能
但更深远的影响在于,它改变了端侧AI设备的性能范式。用户获得流畅AI体验的门槛,不再仅仅与搭载了多少GB的物理DRAM强相关,更与存储系统的整体智能调度能力深度绑定。江波龙在展台上演示了基于紫光展锐平台的方案:4GB DDR搭配HLC技术后,20款App启动响应时间仅851ms,接近6GB/8GB DDR正常配置的水平。这为“用更低的硬件成本,提供相当的体验”提供了可能性,正如黄强所言:“在降低内存容量的情况下实现与用户相同的体验。这是HLC技术的核心。”
三:模式与外延——从“端侧”到“全场景”的价值延伸
江波龙的故事,不止于几项炫酷的技术。其更深层的竞争力,在于构建了一套应对端侧AI定制化需求的存储Foundry模式,并开始思考技术的横向迁移。
端侧AI存储的Foundry模式
面对AI手机、AI PC、机器人、穿戴设备等千差万别的需求,标准化存储产品已力不从心。江波龙提出的“端侧AI存储产品Foundry模式”,覆盖了从芯片设计、硬件、固件、封装工艺、材料工程到生产制造的全产业链环节。

“我们通过深度协调、技术整合和能力开放,实现存储产品从设计到交付的全链路定制化与高效化。”蔡华波在演讲中这样定义。这意味着,江波龙的角色从一个存储模组供应商,转变为一个能够根据客户具体场景(尺寸、功耗、性能、成本),提供从芯片到成品一站式定制方案的半导体存储品牌企业。
针对穿戴设备等对集成度要求极高的场景,其 SiP(系统级封装)能力可将 SoC、Flash、DRAM、被动元器件等集成于一体,正是这种定制化模式的极致体现,满足了 AI 眼镜、手表等对空间要求极度苛刻的设备需求。除了高集成度的封装能力,江波龙在核心存储芯片设计上的实力同样获得国际合作伙伴认可。值得一提的是,闪迪全球产品高级副总裁Eric Spanneut在本次CFMS演讲中公开肯定了江波龙的技术与产品价值。其UFS 4.1产品搭载江波龙5nm WM7400 主控芯片,在性能、功耗、耐久性等方面表现出色,同时优化成本、拓展产品覆盖,为闪迪移动端存储产品多元化应用提供了价值服务与有力支撑,充分体现了江波龙端侧AI存储Foundry的芯片设计能力。
端云优势互补:智能存储技术的跨域协同潜力
一个自然的疑问是:这套为端侧AI打造的智能存储技术,能否与云端形成优势互补?
从技术原理上看,SPU支持128TB大容量,可以有效替代HDD,并为eSSD提供新的选择,而iSA的数据智能分层理念和HLC的高效缓存管理,与数据中心面临的“热-温-冷”数据分级存储、降低内存数据库成本等挑战,在逻辑上高度相通。虽然端侧与云端在规模、协议、生态上存在巨大差异,但“通过存储侧智能来优化整体系统效率、降低成本”的核心思想是具有普适性的,其构建的“存储处理单元+智能体”的软硬件协同架构,为未来向更广阔的AI数据领域延伸埋下了伏笔。
结语:
江波龙早已跳出传统存储模组厂商的定位。在AI掀起的存储产业巨浪中,它正凭借深度集成与端侧 AI 存储创新模式,开拓出一条差异化发展路径:凭借在芯片设计(慧忆微主控、自研Flash芯片)、固件算法、先进封装(元成封测)和材料工程上的全链路能力,以“集成存储”为核心理念,紧抓端侧AI 规模化落地的时代机遇,为市场提供核心的存储解决方案与技术支撑。
其价值不仅在于推出几款高性能产品,更在于为终端厂商探索出一条依托系统级创新,优化产品成本结构、提升整体性价比的可行路径。在AI定义硬件的时代,存储不再只是数据的“仓库”,而应成为提升系统能效、决定体验边界的“处理器”。江波龙已然成为定义新一代智能终端存储价值的关键参与者。










最新资讯
热门视频
新品评测
X
微博认证登录
QQ账号登录
微信账号登录