global-reach-v1 global-reach-v1
Ease of Use

量身定制,预算无压力

Cost and Accessibility

简单易用,一键部署

Privacy

数据隐私,安全无忧

注:比较4张本地NVIDIA 6000 ADA GPU与8张云端NVIDIA H100 GPU

经济高效

aiDAPTIV+ 能够实现 HBM、GDDR 内存与成本效益更高的闪存之间的动态资源调配,有效降低硬件开支,同时大幅减少模型训练对昂贵且高耗能 GPU 显卡的依赖

轻松上手

无论在家中、办公室、教室还是数据中心,都可轻松部署。设备小巧,仅需普通电力和冷却设备即可运行。

支持命令行操作与直观图形界面,内置多种功能套件,助您轻松完成模型导入、微调、验证与推理。

数据隐私保障

支持在防火墙内进行大语言模型 (LLM) 训练,全程掌控私人数据,确保符合数据隐私合规要求,使用更安心。

模型训练尽在掌握

为个人和企业提供具成本效益的 AI 训练平台,不仅助您掌握推理技术,更能深入学习模型微调。有效解决 LLM 训练技术人才短缺问题,让您轻松使用自有数据进行训练。

模型规模无限扩展

一站式解决方案助您轻松训练大型数据模型,无需额外人力与基础设施。支持灵活扩展节点,线性提升数据处理能力,显著缩短训练时间。

释放IoT边缘运算及机器人技术

NVIDIA Jetson IoT 设备搭载群联 aiDAPTIV+ 技术,不仅可以进行 LLM 训练,还能加速首次 token 召回的时间,提高推论性能,并通过增加 token 长度,增强上下文识别,提供更长且更精确的回答。

AI笔记本电脑

搭载 GPU 及群联 aiDAPTIV+ 技术的 AI 笔记本电脑,让用户可以在家中、办公室或教室学习如何训练 LLM。此外,您也能在本地运行训练过的 LLM,并通过模型扩充其数据,使其提供更为量身定制的推论应答。使用 aiDAPTIV+ 技术还能提升提示召回时间,并提供更多的上下文空间,进而产生更长且更精确的回复。

LLM训练应用场景

地端 LLM 训练帮助企业及个人将特定领域的数据整合进通用知识模型中,提高模型在如医疗诊断、财务预测、法律分析及产品开发等各类专业领域的可用性、相关性及准确性。

群联 aiDAPTIV+大语言模型训练整合方案

使用命令行或aiDAPTIV+ Pro Suite进行LLM训练

模型支持

  • Llama, Llama-2, Llama-3, CodeLlama
  • Vicuna, Falcon, Whisper, Clip Large
  • Metaformer, Resnet, Deit base, Mistral, TAIDE
  • 更多模型将持续加入
global-reach-v1
and/or
global-reach-v1

内置高效内存管理方案

体验无缝的 PyTorch 兼容性,无需调整 AI 应用程序即可轻松扩展节点。系统供应商可获得 AI100E SSD、Middleware 中间件授权及群联全方位支持,助您顺利完成系统整合

查看更多

优势

  • 无瑕置换
  • 无需变更您的AI 应用
  • 重复使用现有硬件或增加节点

aiDAPTIV+ 中间件

  • 将模型分割,分配到每个GPU
  • 在 aiDAPTIVCache 上暂放待处理的切片
  • 将GPU上已完成的部分与待处理的切片交换

系统整合商权益

  • ai100E SSD
  • 中间件函式库授权
  • 群联电子全方位支持服务
and
global-reach-v1

无缝扩展 GPU 内存

通过 aiDAPTIVCache 和优化的中间件扩展 GPU 内存,为 PC 提供高达 320GB 的额外容量,工作站和服务器最高可扩展至 8TB,支持低延迟 LLM 训练。同时具备行业领先的 100 DWPD 高耐用性,结合专业 SSD 设计和先进 NAND 纠错技术,提供更具竞争力的解决方案。

查看更多

无缝整合

  • 优化的中间件以扩展 GPU 内存容量
  • 2x 2TB aiDAPTIVCache,支持70B模型
  • 低延迟

高耐久度

  • 业界领先,高达100次的五年内每日写入次数(DWPD)
  • 采用业界先进NAND 纠错算法的SLC NAND

加强推论

aiDAPTIV+ 能通过加速首次召回 Token 的时间来实现更快速的响应,提升推理使用体验,同时延长 Token 长度,提供更丰富的上下文,从而生成更长且更准确的回答。

释放模型无限潜能

aiDAPTIV+ 通过整合闪存与 DRAM,提供更大的内存资源,使模型规模不再受限于 GPU 显卡的 HBM 或 GDDR 内存容量

这让您能够训练更大规模的模型,并以更具性价比的方式完成过去仅大型企业和云服务供应商才能承担的计算任务

其他资源

aiDAPTIV+开发历程

2024 Computex aiDAPTIV+ 主题演讲

aiDAPTIV+概览

aiDAPTIV+运作原理

行业支持

  • 「研华与群联的合作有助于降低企业进入生成式 AI 领域的门槛,推动本地 AI 训练的普及。」

    Miller Chang
    President
    Advantech Embedded-IoT Group

  • 「为了为客户提供更大价值,华硕将群联的 aiDAPTIV+ 纳入我们的数据中心解决方案,实现显著性能提升且无需增加额外成本。」

    Paul Ju
    Corporate Vice President and CTO Data Center,
    OP BG General Manager of Data Center Solution BU
    ASUS

  • 「除了 PC 市场外,技嘉深耕 AI 服务器领域多年。群联创新的 aiDAPTIV+ 解决方案为技嘉 AI 服务器客户提供了全新的计算架构,助力 AI 模型微调。通过将 SSD 整合进 AI 计算架构并扩展 GPU 内存,显著降低 AI 计算成本,为全球希望导入 AI 应用的客户带来巨大优势。」

    Etay Lee
    CEO
    GIGABYTE

  • 「MAINGEAR 的 Pro AI 系列工作站搭载群联aiDAPTIV+,让用户以更低成本完成大语言模型 AI 训练。我们致力于提供高性能且具成本效益的解决方案,帮助中小企业、大学及研究机构在这一传统上需巨额投资的领域中获得竞争优势。」

    Wallace Santos
    Founder and CEO
    MAINGEAR

  • 「群联的 aiDAPTIV+ 为我们的平台带来了强大的边缘计算能力,为用户与开发者打开了全新可能性。」

    Jason Yeh
    Assistant General Manager AI and Data Engineering Division
    MediaTek

技术支持

群联提供专属技术支持,覆盖 aiDAPTIV+ 产品从实施到持续运行与优化的整个生命周期。专业团队为您提供快速故障排除、固件调优和性能优化服务,确保系统顺利整合并达到最佳性能。借助 AI 工程师的专业协助与工具,群联的 aiDAPTIV+ 客户及合作伙伴可加速产品商业化进程,最大化 AI 项目的投资回报

Gantry 5