リソースの有効活用

リソースの有効活用

aiDAPTIV+ を使用すると、
エンジニアリング チームのトレーニングではなく、データそのもののトレーニングに集中できます。

費用対効果の向上

費用対効果の向上

ファイソンのaiDAPTIV+ はコスト効率の高い
フラッシュメモリを使用し、汎用 ワークステーションでの大規模言語モデル (LLM) のトレーニングが
実現可能です。

セキュリティ

セキュリティ

aiDAPTIV+ ワークステーションを使用すると、
データの制御と管理を自社の管理エリア内で保管
できます。

データモデルトレーニングをスムーズにスケーリング

aiDAPTIV+ は、データ トレーニングを必要とする機関向けに発売された大規模なデータ モデル トレーニングのターンキー ソリューションで
あり、追加の人員配置やインフラストラクチャは必要ありません。

このプラットフォームは、データ トレーニングと時間の要求に応じて直線的に拡張できるため、トレーニング結果に集中できます。

ハイブリッド ソリューションにより LLM トレーニングの効率が大幅に向上

ファイソンのaiDAPTIV+ は、今の大規模言語モデル (LLM) トレーニングの課題を克服するハードウェアとソフトウェアのハイブリッド ソリューションです。

パートナーのワークステーション PC を使用して、Llama 70b までのLLM
トレーニングに費用対効果の高いアプローチを提供できます。

Rectangle_129.png
Rectangle_129.png

スケーラビリティの向上

aiDAPTIV+ を使用するより、企業はノードを拡張し、
トレーニングデータ量を増加してトレーニング時間を短縮できます。

2224145_GTC2024GfxChartForWebsiteAndTrifold_Mobile_022824

大規模なモデル
トレーニングへの扉を開く

aiDAPTIV+ が登場するまで、中小企業は Llama 7b を超えて拡張する能力がなく、小規模で不正確なトレーニングに限定されていました。

ファイソンの aiDAPTIV+ ソリューションにより、大規模なモデルワークロードも実行可能になります。

Middleware​

AI アプリケーション向けの組み込み
ソリューション

Images Hover

メリット

  • 簡単に実装
  • AI アプリケーションを変更する必要はありません
  • 既存のハードウェアを再利用するか、ノードを追加します

aiDAPTIV+ ミドルウェア

  • モデルを分割して各GPUに割り当てる
  • aiDAPTIV キャッシュ上で保留中のスライスを保持する
  • GPU 上で保留中のスライスを完了したスライスと交換する

システム統合

  • ai100E SSDを使用可能
  • ミドルウェアデータベースライセンス
  • ファイソンの総合サポートサービス

aiDAPTIVCache Family

GPUメモリとの完璧な統合

Images Hover

シームレスで完璧な統合

  • GPUメモリ容量を拡張するために最適化された
    ミドルウェア
  • 2x 2TB aiDAPTIV キャッシュ、70B モデルをサポート
  • 低遅延

高耐久性

  • 業界をリードするDWPD

    5 年以内に 1 日あたり 100 回の書き込み
  • 高度な NAND 修正アルゴリズムを備えた SLC NAND
PB_Phison_digital_badge_square_DARK

パートナーと代理店

Partners logo image Partners logo image
Partners logo image Partners logo image
Partners logo image Partners logo image

システムインテグレーター

Partners logo image Partners logo image
Partners logo image Partners logo image
Partners logo image Partners logo image