注: オンプレのNVIDIA 6000 ADA GPU 4基と、クラウドのNVIDIA H100 GPU 8基を比較した想定
高価なHBMやGDDRメモリをコスト効率の良いフラッシュメモリへオフロードして、高コストで電力消費の多いGPUカードを大量に使用する必要性を排除。
家庭、オフィス、教室、またはデータセンターに簡単に導入可能。省スペース設計で、
一般的な電源と冷却システムで使用可能。
コマンドラインからのアクセス、もしくは直感的なGUIを利用してのアクセスが可能。
モデルの取り込み、ファインチューニング、検証、推論をオールインワンのツールセットで実行可能。
ファイアウォール内でLLMのトレーニングを実行可能。プライベートデータを完全に管理でき、データコンプライアンスにより、安心で使えます。
個人や企業向けに費用対効果の高い AI トレーニングPCを提供することで、単なる推論の学習にとどまらず、モデルのファインチューニング方法も習得可能。これにより、LLMトレーニングの技術人材不足を解消し、独自データを活用したトレーニングを容易に実現。
追加の人員やインフラストラクチャを必要とせずに、大規模なデータ モデルを簡単にトレーニングできるワンストップ ソリューション。ノードを柔軟に拡張してデータ量を直線的に増加させ、トレーニング時間を短縮します。
NVIDIA Jetson IoTデバイスは、Phison aiDAPTIV+ を活用して最初のトークンリコール時間を短縮し、推論パフォーマンスを向上させます。さらに、トークン長を拡張することで、より長く正確な回答を可能にします。また、aiDAPTIV+ によりJetson IoTデバイス上でのLLMモデルのトレーニングが可能になります。
GPUとPhison aiDAPTIV+ を搭載したAIノートパソコンを使用することで、個人は自宅やオフィス、教室でLLMのトレーニング方法を学ぶことができます。また、トレーニング済みのLLMをオンプレミスで運用し、自身のデータを活用したモデルにより、推論プロンプトに対するより適切な応答を得ることができます。aiDAPTIV+ を使用すると、プロンプトリコール時間が短縮され、より多くのコンテキストを処理できるため、より長く正確な回答を生成できます。
オンプレミスでのLLMトレーニングにより、組織や個人は一般的な知識モデルをドメイン固有のデータで強化できます。これにより、医療診断、財務予測、法的分析、製品開発などの専門分野において、使いやすさ、関連性、精度が向上します。
シームレスな PyTorch 互換性を体験し、AI アプリケーションを調整する必要がなく、ノードを簡単に追加できます。システム サプライヤーは、AI100E SSD、ミドルウェア ライブラリの認証とシステムのスムーズな統合を支援する ファイソンの包括的なサポートを利用できます。
ファイソンaiDAPTIVCache とミドルウェアは GPU メモリを拡張でき、PC には320 GBの追加メモリ、ワークステーションとサーバーには最大 8 TB の追加メモリを提供し、低遅延の LLM トレーニングをサポートします。さらに、業界をリードする100 DWPD という極めて高い耐久性を備え、特別な設計でファイソンの高度なNANDエラー訂正アルゴリズム技術をサポートしています。
aiDAPTIV+ は、最初のトークンリコール時間を短縮することで、推論体験を向上させます。さらに、トークン長を拡張することで、より長く正確な回答を提供するためのコンテキストが増加します。
aiDAPTIV+ はフラッシュ メモリと DRAM を統合することでより大きなメモリ リソースを提供するため、モデルサイズは GPU グラフィックス カードの HBM やGDDR メモリの容量によって制限されなくなります。
これにより、大規模なモデルをトレーニングし、かつては大企業やクラウド サービス プロバイダーのみが利用できたコンピューティング需要をより手頃な価格で実行できるようになります。