操作简易

操作简易

比起耗时训练人力,
aiDAPTIV+ 让您将时间专注于数据训练。

低成本、高可及性

低成本、高可及性

群联 aiDAPTIV+ 利用闪存的成本优势,
大幅提升使用普通工作站训练大型语言模型
(LLM)的可行性。

隐私性

隐私性

aiDAPTIV+工作站助您重拾作业控制权,
将数据留在地端。

轻松扩增数据模型训练

aiDAPTIV+是能帮助各级组织与机构进行大型数据模型训练并同时避免
增生额外资源需求的最佳Turnkey 解决方案。

平台可随着训练和时间需求线性扩增资源,让您把专注力保留给结果分析
与利用。

混合式解决方案
大幅提升LLM训练效率

群联 aiDAPTIV+是克服现今 LLM 训练难题的软硬件混合型解决方案。
群联任一合作伙伴搭载aiDAPTIV+的工作站,都能为您高效提供可达
Llama 700亿参数量级的LLM训练。

Rectangle_129.png
Rectangle_129.png

成就全面资源扩展

aiDAPTIV+为企业开创节点扩增可行性,
增加总体训练数据量并减少训练时间。

2224145_GTC2024GfxChartForWebsiteAndTrifold_Mobile_022824

实现大规模模型训练

在aiDAPTIV+出现之前,中小型企业仅能进行小规模且不确实的训练,
并无法扩展到Llama 7b以上的规模。

群联 aiDAPTIV+ 解决方案能够成就更大规模的模型训练,
让您获得过去仅限于数据中心等级的推论及运算效能。

LEARN MORE

Middleware​

适配所有现行AI应用的解决方案

Images Hover

优势

  • 无瑕置换
  • 无需变更您的AI 应用
  • 重复使用现有硬件或增加节点

aiDAPTIV+ 中间件

  • 将模型分割,分配到每个GPU
  • 在 aiDAPTIVCache 上暂放待处理的切片
  • 将GPU上已完成的部分与待处理的切片交换

系统整合商权益

  • ai100E SSD
  • 中间件函式库授权
  • 群联电子全方位支持服务

aiDAPTIVCache Family

与GPU内存完美接合

Images Hover

无缝整合

  • 优化的中间件以扩展 GPU 内存容量
  • 2x 2TB aiDAPTIVCache,支持70B模型
  • 低延迟

高耐久度

  • 业界领先,高达100次的五年内每日写入次数(DWPD)
  • 采用业界先进NAND 纠错算法的SLC NAND
PB_Phison_digital_badge_square_DARK

合作伙伴与代理商

Partners logo image Partners logo image
Partners logo image Partners logo image
Partners logo image Partners logo image

系统整合商

Partners logo image Partners logo image
Partners logo image Partners logo image
Partners logo image Partners logo image