NAND控制晶片暨NAND儲存解決方案整合服務領導廠商 群聯電子 (Phison; 8299TT) 於今日 (2026/03/17) 宣布將於GTC展會119號攤位展示其aiDAPTIVTM多層級記憶體架構技術 (multi-tier memory architecture),如何在由 NVIDIA 平台驅動的本地邊緣AI系統中,支援更大型AI模型與長上下文(long-context)推論。

目前產業正面臨日益嚴峻的記憶體供給短缺狀況,而對AI就緒平台 (AI-ready platforms) 的需求卻持續快速攀升。由於針對專有資料 (proprietary data) 進行微調 (fine-tuning) 與推論 (inference) 需要大量運算與記憶體資源,也使得企業在投資AI基礎設施與邊緣AI設備時面臨挑戰。隨著AI解決方案成本上升與AI工作流程瓶頸增加,也進一步拖慢企業將AI創新轉化為實際營收的上市時程。為了解決此問題,群聯推出 aiDAPTIV™ 多層級記憶體架構技術,專為邊緣AI應用打造。透過搭載aiDAPTIV技術的群聯企業級Pascari SSD 作為全新的 AI 記憶體層級,aiDAPTIV 技術能夠在 GPU 記憶體、系統 RAM 與NAND Flash快閃記憶體之間,智慧延伸並管理 AI 運算的工作記憶體。
隨著 NVIDIA的AI基礎設施持續提升GPU記憶體能力以支援資料中心推論工作負載,本次群聯發表展示了aiDAPTIV技術如何將多層級記憶體架構 (multi-tier memory architecture) 導入地端邊緣AI系統。aiDAPTIV 技術利用專為持續分頁(sustained paging)與上下文保存(context retention)而優化設計的高耐久度快閃記憶體 (high-endurance NAND flash),支援在固定GPU硬體配置下進行記憶體密集需求的AI推論 (memory-intensive inference) 與AI模型微調工作負載。透過 aiDAPTIV 的多層級記憶體架構技術,企業可在本地邊緣系統上運作日益成長的 AI 工作負載,並同時兼顧資料隱私並提升長期AI基礎設施投資效率。
群聯執行長潘健成表示:「傳統記憶體管理機制並非為 AI 應用所設計,而今日的 AI 基礎設施也已無法再依賴通用型的記憶體管理方式。透過 aiDAPTIV 多層級記憶體架構技術,我們打造了一個具備 AI 感知能力的記憶體架構 (AI-aware architecture),能在多層級記憶體之間延伸AI有效記憶體容量,使本地邊緣 AI 平台在不增加 GPU 硬體的情況下,也能支援更大型模型與長上下文推論,協助企業在維持邊緣 AI 工作負載的同時,更可有效地規劃AI基礎設施投資。」
在NVIDIA GTC 2026展會現場,群聯將展示多項合作夥伴設備,包括搭載 NVIDIA GB10 Grace Blackwell處理器的筆記型電腦、工作站與系統,以及採用 NVIDIA GeForce RTX 50 Series 與 NVIDIA RTX PRO 6000 Blackwell Max-Q Workstation Edition GPU 的平台。
展示內容將涵蓋長上下文推論(long-context inference)、重複利用 KV cache 的代理式 AI(agentic AI) 工作流程,以及記憶體密集需求的大型AI模型微調等應用,說明 aiDAPTIV 技術如何透過 GPU 記憶體、系統 RAM 與快閃記憶體之間的多層級架構來延伸AI有效記憶體容量 (AI effective memory),讓原本可能超出系統記憶體容量限制的 AI 工作負載得以順利運行。
更多群聯產品資訊,請造訪 www.phison.com。
如需了解更多GTC公告與aiDAPTIV解決方案資訊,請參閱媒體資料包(media kit)。