Ease of Use

リソースの有効活用

aiDAPTIV+ を使用すると、
エンジニアリング チームのトレーニングではなく、データそのもののトレーニングに集中できます。

Cost and Accessibility

費用対効果の向上

ファイソンのaiDAPTIV+ はコスト効率の高い
フラッシュメモリを使用し、汎用 ワークステーションでの大規模言語モデル (LLM) のトレーニングが
実現可能です。

Privacy

セキュリティ

aiDAPTIV+ ワークステーションを使用すると、
データの制御と管理を自社の管理エリア内で保管
できます。

データモデルトレーニングをスムーズにスケーリング

aiDAPTIV+ は、データ トレーニングを必要とする機関向けに発売された大規模なデータ モデル トレーニングのターンキー ソリューションで
あり、追加の人員配置やインフラストラクチャは必要ありません。

このプラットフォームは、データ トレーニングと時間の要求に応じて直線的に拡張できるため、トレーニング結果に集中できます。

ハイブリッド ソリューションにより LLM トレーニングの効率が大幅に向上

ファイソンのaiDAPTIV+ は、今の大規模言語モデル (LLM) トレーニングの課題を克服するハードウェアとソフトウェアのハイブリッド ソリューションです。

パートナーのワークステーション PC を使用して、Llama 70b までのLLM
トレーニングに費用対効果の高いアプローチを提供できます。

スケーラビリティの向上

aiDAPTIV+ を使用するより、企業はノードを拡張し、
トレーニングデータ量を増加してトレーニング時間を短縮できます。

Chart_PageRedesign.svg

大規模なモデル
トレーニングへの扉を開く

aiDAPTIV+ が登場するまで、中小企業は Llama 7b を超えて拡張する能力がなく、小規模で不正確なトレーニングに限定されていました。

ファイソンの aiDAPTIV+ ソリューションにより、大規模なモデルワークロードも実行可能になります。

詳細 パンフレットをダウンロード
Images Hover Images Hover Images Hover Images Hover
もっと詳しく

メリット

  • 簡単に実装
  • AI アプリケーションを変更する必要はありません
  • 既存のハードウェアを再利用するか、ノードを追加します

aiDAPTIV+ ミドルウェア

  • モデルを分割して各GPUに割り当てる
  • aiDAPTIV キャッシュ上で保留中のスライスを保持する
  • GPU 上で保留中のスライスを完了したスライスと交換する

システム統合

  • ai100E SSDを使用可能
  • ミドルウェアデータベースライセンス
  • ファイソンの総合サポートサービス
Images Hover Images Hover Images Hover Images Hover
もっと詳しく

シームレスで完璧な統合

  • GPUメモリ容量を拡張するために最適化された
    ミドルウェア
  • 2x 2TB aiDAPTIV キャッシュ、70B モデルをサポート
  • 低遅延

高耐久性

  • 業界をリードするDWPD

    5 年以内に 1 日あたり 100 回の書き込み
  • 高度な NAND 修正アルゴリズムを備えた SLC NAND
Gantry 5

パートナーと代理店

Partners logo image Partners logo image
Partners logo image Partners logo image
Partners logo image Partners logo image

システムインテグレーター

Partners logo image Partners logo image
Partners logo image Partners logo image
Partners logo image Partners logo image