aiDAPTIV TM

オンプレミスで実現する、プライベートかつ高速なLLM 推論と大規模学習 

2024 FMS Best of Show

最も革新的なAIアプリケーション

2025 台湾エクセレンス

シルバー賞

2025 LearnX ゴールド賞

最優秀学習&タレントテクノロジー

プライベートAI処理 

使いやすく、導入しやすい 

あなたにぴったり 予算 

プライベート 

aiDAPTIV™ テクノロジーは、企業のファイアウォール内でLLMのトレーニングを可能にし、お客様のプライベートデータを完全に管理できる環境を提供します。データ主権に関する各種規制にも対応できるため、安全かつ安心してAIを活用できます。

使いやすさ 

无论在家中、办公室、教室还是数据中心,都可轻松部署 aiDAPTIV™。设备小巧,仅需普通电力和冷却设备即可运行。 用户可选择通过命令行操作或直观图形界面(GUI),并使用一体化工具套件完成模型导入、微调、验证与推理。

手頃な価格 

aiDAPTIV™ は、高価な HBM や GDDR メモリをコスト効率の高いフラッシュメモリへオフロードすることで、多数の高価格・高消費電力な GPU カードを必要としません。また、Mixture of Experts(MoE)モデル処理に必要な DRAM を削減し、大規模データセットをローカルに保持することで、外部へのデータ転送コストを排除します。

Edge/IoT/Robotics

AI Notebook PC

Desktop

Workstation PC

高速、プライベート・オンプレ AI 推論、どこからでも

aiDAPTIV™はクラウドと比較して、ローカルPCやエッジデバイス上で大規模言語モデル(LLM)を低コスト、少ない計算リソース、低消費電力で実行できます。応答速度を向上させ、より多くのコンテキストをサポートし、正確でカスタマイズされた回答を提供しながら、データのプライバシーと主権を維持します。

AIトレーニングPCでLLMトレーニングを学ぶ 

aiDAPTIV™ 技術を搭載した AI トレーニング PC は、単なる推論にとどまらず、LLMのファインチューニングを個人や組織が容易に学習・実践できる環境を提供します。自社データを用いてローカルで LLM をトレーニングすることで、スキル人材不足の解消にも貢献します。

エッジコンピューティングとロボティクス向けIoT 

aiDAPTIV™ を搭載したエッジAIデバイスは、LLM推論における最初のトークン生成時間(TTFT)を短縮し、コンパクトなハードウェア上でより大規模なモデルと拡張されたコンテキスト長を実現し、より長く正確な応答を可能にします。

AI ノート PC で、場所を選ばず AI モデルをトレーニング 

GPU と aiDAPTIV™ テクノロジーを搭載した AI ノート PC により、自宅・オフィス・教室など、場所を問わず LLM のトレーニングを学ぶことができます。また、学習済み LLM をオンプレミスで運用し、自社データで拡張されたモデルから、より的確な推論応答を得ることができます。aiDAPTIV はプロンプトの応答時間を短縮し、より多くのコンテキストに対応することで、より長く正確な回答を生成します。

LLMトレーニングのユースケース 

aiDAPTIV™ を活用したオンプレミスでの LLM トレーニングにより、組織や個人は汎用的な知識モデルをドメイン特化データで強化できます。これにより、医療診断、財務予測、法的分析、製品開発などの専門分野において、使いやすさ、関連性、精度が向上します。

Pascari aiDAPTIV™ LLM トレーニング統合ソリューション

Pro Suite

コマンドラインインターフェース、または aiDAPTIV テクノロジーを搭載した直感的なオールインワンソリューションを活用して、LLM トレーニングを実行できます。

Supported Models

  • Llama, Llama-2, Llama-3, CodeLlama
  • Mistral, Mixtral, Qwen, DeepSeek
  • Phi, Gemma, Vicuna, Falcon
  • Whisper, LLaVA, Qwen-VL, InternVL
  • TAIDE(Breeze シリーズ)
  • 継続的にモデルを追加中

aiDAPTIV Pro Suite 

Supported Models

  • Llama, Llama-2, Llama-3, CodeLlama
  • Mistral, Mixtral, Qwen, DeepSeek
  • Phi, Gemma, Vicuna, Falcon
  • Whisper, LLaVA, Qwen-VL, InternVL
  • TAIDE(Breeze シリーズ)
  • 継続的にモデルを追加中
and/or

メモリ管理ミドルウェア

組み込み型メモリ管理ソリューション

PyTorch に準拠しており、AI アプリケーションを変更することなく、シームレスに導入できます。必要に応じてノードを容易に追加でき、システムベンダーは aiDAPTIV キャッシュメモリ SSD とミドルウェアライセンスを利用でき、ファイソンの全面的なサポートによりスムーズなシステム統合が可能です。

and

キャッシュメモリ

GPU メモリとのシームレスな統合

最適化されたミドルウェア技術により、キャッシュメモリを活用して GPU メモリを拡張し、PC では最大 320GB、ワークステーションやサーバーでは最大 8TB を実現します。この追加メモリにより、低レイテンシの LLM トレーニングをサポートします。さらに、専用 SSD 設計と高度な NAND 修正アルゴリズムにより、業界をリードする 100 DWPD の高耐久性を提供します。

シームレスで完璧な統合

  • GPUメモリ容量を拡張するために最適化されたミドルウェア
  • 671B モデル以上に対応 
  • 低遅延

高耐久性

  • 業界をリードするDWPD 5 年以内に 1 日あたり 100 回の書き込み
  • 高度な NAND 修正アルゴリズムを備えた SLC NAND

推論の向上

aiDAPTIV™ ハードウェアとソフトウェア技術は、最初のトークン生成時間(TTFT)を短縮することで応答を高速化し、推論体験を向上させます。さらに、トークン長を拡張することで、より豊富なコンテキストを提供し、より長く正確な回答を生成します。

モデルの無限の可能性を解き放つ

aiDAPTIV™ を活用することで、GPU カード上の HBM や GDDR メモリ容量による制約をなくし、モデルサイズを気にせずにファインチューニングが可能になります。フラッシュメモリと DRAM をインテリジェントに統合し、より大きなメモリプールを実現します。

これにより、大規模なトレーニングモデルが可能となり、これまで大企業やクラウドサービスプロバイダーのみが実行できたワークロードを手頃な価格で実行できます。

リソース

業界からの支持

テクニカルサポート

ファイソンの専任テクニカルサポートチームは、初期導入から運用、最適化に至るまで、製品ライフサイクル全体を通じて aiDAPTIV™ テクノロジーをエンドツーエンドで支援します。 専門エンジニアによる迅速なトラブルシューティング、ファームウェアの調整、パフォーマンスチューニングにより、シームレスな統合と最大限の製品効率を実現します。 サポートエンジニアと先進ツールへのアクセスにより、aiDAPTIV™ のお客様とパートナーは市場投入までの時間を短縮し、AI ワークロードの投資対効果を最大化できます。

SEAMLESS INTEGRATION

  • Optimized middleware to extends GPU memory capacity
  • 2x 2TB aiDAPTIVCache to support 70B model
  • 低遅延

HIGH ENDURANCE

  • 業界をリードするDWPD 5 年以内に 1 日あたり 100 回の書き込み
  • 高度な NAND 修正アルゴリズムを備えた SLC NAND

aiDAPTIV+ BENEFITS

  • 簡単に実装
  • AI アプリケーションを変更する必要はありません
  • Reuse existing HW or add nodes

aiDAPTIV+ MIDDLEWARE

  • モデルを分割して各GPUに割り当てる
  • Hold pending slices on aiDAPTIVCache
  • Swap pending slices w/ finished slices on GPU

FOR SYSTEM INTEGRATORS

  • Access to ai100E SSD
  • Middleware library license

  • Full Phison support to bring up