NAND控制芯片暨NAND储存解决方案整合服务领导厂商 群联电子 (Phison; 8299TT) 于今日 (2026/03/17) 宣布将于GTC展会119号摊位展示其aiDAPTIVTM多层级内存架构技术 (multi-tier memory architecture),如何在由 NVIDIA 平台驱动的本地边缘AI系统中,支持更大型AI模型与长上下文(long-context)推论。

目前产业正面临日益严峻的内存供给短缺状况,而对AI就绪平台 (AI-ready platforms) 的需求却持续快速攀升。由于针对专有数据 (proprietary data) 进行微调 (fine-tuning) 与推论 (inference) 需要大量运算与内存资源,也使得企业在投资AI基础设施与边缘AI设备时面临挑战。随着AI解决方案成本上升与AI工作流程瓶颈增加,也进一步拖慢企业将AI创新转化为实际营收的上市时程。为了解决此问题,群联推出 aiDAPTIV™ 多层级内存架构技术,专为边缘AI应用打造。透过搭载aiDAPTIV技术的群联企业级Pascari SSD 作为全新的 AI 内存层级,aiDAPTIV 技术能够在 GPU 内存、系统 RAM 与NAND Flash闪存之间,智慧延伸并管理 AI 运算的工作内存。
随着 NVIDIA的AI基础设施持续提升GPU内存能力以支持数据中心推论工作负载,本次群联发表展示了aiDAPTIV技术如何将多层级内存架构 (multi-tier memory architecture) 导入地端边缘AI系统。aiDAPTIV 技术利用专为持续分页(sustained paging)与上下文保存(context retention)而优化设计的高耐久度闪存 (high-endurance NAND flash),支持在固定GPU硬件配置下进行内存密集需求的AI推论 (memory-intensive inference) 与AI模型微调工作负载。透过 aiDAPTIV 的多层级内存架构技术,企业可在本地边缘系统上运作日益成长的 AI 工作负载,并同时兼顾数据隐私并提升长期AI基础设施投资效率。
群联执行长潘健成表示:「传统内存管理机制并非为 AI 应用所设计,而今日的 AI 基础设施也已无法再依赖通用型的内存管理方式。透过 aiDAPTIV 多层级内存架构技术,我们打造了一个具备 AI 感知能力的内存架构 (AI-aware architecture),能在多层级内存之间延伸AI有效内存容量,使本地边缘 AI 平台在不增加 GPU 硬件的情况下,也能支持更大型模型与长上下文推论,协助企业在维持边缘 AI 工作负载的同时,更可有效地规划AI基础设施投资。」
在NVIDIA GTC 2026展会现场,群联将展示多项合作伙伴设备,包括搭载 NVIDIA GB10 Grace Blackwell处理器的笔记本电脑、工作站与系统,以及采用 NVIDIA GeForce RTX 50 Series 与 NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition GPU 的平台。
展示内容将涵盖长上下文推论(long-context inference)、重复利用 KV cache 的代理式 AI(agentic AI) 工作流程,以及内存密集需求的大型AI模型微调等应用,说明 aiDAPTIV 技术如何透过 GPU 内存、系统 RAM 与闪存之间的多层级架构来延伸AI有效内存容量 (AI effective memory),让原本可能超出系统内存容量限制的 AI 工作负载得以顺利运行。
更多群联产品信息,请造访 www.phison.com。
如需了解更多GTC公告与aiDAPTIV解决方案信息,请参阅媒体数据报(media kit)。