Ease of Use

リソースの有効活用

aiDAPTIV+ を使用すると、
エンジニアリング チームのトレーニングではなく、データそのもののトレーニングに集中できます。

Cost and Accessibility

費用対効果の向上

ファイソンのaiDAPTIV+ はコスト効率の高い
フラッシュメモリを使用し、汎用 ワークステーションでの大規模言語モデル (LLM) のトレーニングが
実現可能です。

Privacy

セキュリティ

aiDAPTIV+ ワークステーションを使用すると、
データの制御と管理を自社の管理エリア内で保管
できます。

データモデルトレーニングをスムーズにスケーリング

aiDAPTIV+ は、データ トレーニングを必要とする機関向けに発売された大規模なデータ モデル トレーニングのターンキー ソリューションで
あり、追加の人員配置やインフラストラクチャは必要ありません。

このプラットフォームは、データ トレーニングと時間の要求に応じて直線的に拡張できるため、トレーニング結果に集中できます。

ハイブリッド ソリューションにより LLM トレーニングの効率が大幅に向上

ファイソンのaiDAPTIV+ は、今の大規模言語モデル (LLM) トレーニングの課題を克服するハードウェアとソフトウェアのハイブリッド ソリューションです。

パートナーのワークステーション PC を使用して、Llama 70b までのLLM
トレーニングに費用対効果の高いアプローチを提供できます。

スケーラビリティの向上

aiDAPTIV+ を使用するより、企業はノードを拡張し、
トレーニングデータ量を増加してトレーニング時間を短縮できます。

Chart_PageRedesign.svg

大規模なモデル
トレーニングへの扉を開く

aiDAPTIV+ が登場するまで、中小企業は Llama 7b を超えて拡張する能力がなく、小規模で不正確なトレーニングに限定されていました。

ファイソンの aiDAPTIV+ ソリューションにより、大規模なモデルワークロードも実行可能になります。

詳細 パンフレットをダウンロード
Images Hover Images Hover Images Hover Images Hover
もっと詳しく

メリット

  • 簡単に実装
  • AI アプリケーションを変更する必要はありません
  • 既存のハードウェアを再利用するか、ノードを追加します

aiDAPTIV+ ミドルウェア

  • モデルを分割して各GPUに割り当てる
  • aiDAPTIV キャッシュ上で保留中のスライスを保持する
  • GPU 上で保留中のスライスを完了したスライスと交換する

システム統合

  • ai100E SSDを使用可能
  • ミドルウェアデータベースライセンス
  • ファイソンの総合サポートサービス
Images Hover Images Hover Images Hover Images Hover
もっと詳しく

シームレスで完璧な統合

  • GPUメモリ容量を拡張するために最適化された
    ミドルウェア
  • 2x 2TB aiDAPTIV キャッシュ、70B モデルをサポート
  • 低遅延

高耐久性

  • 業界をリードするDWPD

    5 年以内に 1 日あたり 100 回の書き込み
  • 高度な NAND 修正アルゴリズムを備えた SLC NAND
Gantry 5