aiDAPTIV TM

更快速的 AI 推論效能與更大規模的 LLM 訓練,全程於本地部署(On-Prem)私有環境完成 

2024 FMS Best of Show

最具創新 AI 應用

2025 台灣精品獎

銀質獎

2025 LearnX 金獎

最佳學習與人才科技

私有AI運算 

輕鬆操作,一鍵部署 

量身打造,預算無負擔 

私有部署 

aiDAPTIV™ 技術支援在企業防火牆後方進行大型語言模型(LLM) 訓練,讓資料全程留在私有環境中,企業可完全掌控敏感資料,並符合資料主權相關合規要求,安心導入 AI 應用。

上手不費力 

無論在家中、辦公室、教室或資料中心,都能輕鬆部署 aiDAPTIV™。其體積小巧,只需一般電力與冷卻設備即可運作。 使用者可選擇透過指令列操作或直覺化圖形介面(GUI),並利用整合式工具套件完成模型導入、微調、驗證與推論。

經濟實惠 

aiDAPTIV™ 將昂貴的 HBM 與 GDDR 記憶體卸載至成本效益更高的快閃記憶體,大幅降低對GPU的需求,從而有效減少整體硬體支出。同時,亦能降低 MoE 模型所需的 DRAM 用量,並將大型資料集保留於本地,避免跨系統資料傳輸的額外成本。

Edge/IoT/Robotics

AI Notebook PC

Desktop

Workstation PC

快速、私有的地端推論,隨處部署

相較於雲端運算,aiDAPTIV™ 可在本地 PC 與邊緣裝置上執行大型語言模型(LLMs),以更低的成本、更少的運算資源與更低的功耗完成推論。同時提升回應速度,並支援更多情境內容,以提供更精準、貼近需求的回答,並確保資料留在地端,符合隱私並維護資料主權。

一手掌握模型訓練 

aiDAPTIV™ 技術搭載の AI 訓練 PC,讓個人與組織輕鬆學習如何微調大型語言模型,不僅限於簡單的推理。透過本地資料進行 LLM 訓練,有效緩解專業人才短缺問題。

釋放IoT邊緣運算及機器人科技 

搭載 aiDAPTIV™ 技術的 Edge AI 裝置,可加速 LLM 推論的首 Token 延遲(TTFT),同時支援更大型的模型與更長的上下文,提供更長、更精準的回應。

隨時隨地,透過 AI 筆電訓練 AI 模型 

搭載 GPU 及 aiDAPTIV™ 技術的 AI 筆記型電腦,讓使用者可在家中、辦公室或教室學習如何訓練 LLM。此外,您也能在本地部署並運行訓練過的 LLM,並透過模型擴充其資料,使其提供更為量身定制的推論應答。使用 aiDAPTIV 技術還能縮短提示回應時間,並支援更多上下文,產生更長且更精準的回答。

LLM訓練應用場景 

透過 aiDAPTIV™ 技術進行本地部署 LLM 訓練,幫助企業及個人將特定領域的資料整合進通用知識模型中,提高模型在如醫療診斷、財務預測、法律分析及產品開發等各式專業領域的可用性、相關性及準確性

Pascari aiDAPTIV™ LLM 訓練整合方案

Pro Suite

使用指令列介面或透過 aiDAPTIV 技術驅動的直覺化整合方案,快速完成 LLM 訓練。

Supported Models

  • Llama, Llama-2, Llama-3, CodeLlama
  • Mistral, Mixtral, Qwen, DeepSeek
  • Phi, Gemma, Vicuna, Falcon
  • Whisper, LLaVA, Qwen-VL, InternVL
  • TAIDE(Breeze 系列)
  • 持續新增更多模型

aiDAPTIV Pro Suite 

Supported Models

  • Llama, Llama-2, Llama-3, CodeLlama
  • Mistral, Mixtral, Qwen, DeepSeek
  • Phi, Gemma, Vicuna, Falcon
  • Whisper, LLaVA, Qwen-VL, InternVL
  • TAIDE(Breeze 系列)
  • 持續新增更多模型
and/or

高效能記憶體管理中介軟體

內建高效記憶體管理方案

體驗無縫的PyTorch相容性,無需調整AI應用程式,輕鬆新增節點。系統供應商可取得 aiDAPTIV 快取記憶體 SSD、中介軟體授權及群聯電子的全方位支援,輕鬆完成系統整合。

and

快取記憶體

無縫擴展GPU記憶體

中介軟體技術打破硬體限制,透過快取記憶體大幅擴展 GPU 記憶體:為 PC 注入額外 320GB、工作站與伺服器更可擴充至 8TB,完美支援低延遲 LLM 訓練。此外,憑藉專屬 SSD 設計與先進 NAND 糾錯算法,提供業界領先的 100 DWPD 高耐久度。

無縫整合

  • 優化的中介軟體以擴展 GPU 記憶體容量
  • 支援 671B 參數模型及更大規模 
  • 低延遲

高耐久度

  • 業界領先,高達100次的五年內每日寫入次數(DWPD)
  • 採用業界先進NAND 糾錯算法的SLC NAND

加強推論

aiDAPTIV™ 硬體與軟體技術能透過加速首 Token 延遲(TTFT)來實現更快速的回應,提升推論使用體驗,並同時延長 Token 長度,提供更豐富的上下文,從而生成更長且更準確的回答。

釋放模型無限潛能

aiDAPTIV™ 透過整合快閃記憶體與 DRAM,提供更大的記憶體資源,使模型規模不再受限於 GPU 顯示卡的 HBM 或 GDDR 記憶體容量。

這讓您能夠訓練更大規模的模型,並以更實惠的方式運行過去只有大型企業和雲端服務供應商才能承擔的工作負載。

資源

業界支持

技術支援

Phison 專屬技術支援團隊為 aiDAPTIV™ 技術提供全生命週期的端到端支援,涵蓋從初期導入、部署到後續營運與持續優化。 我們的專家團隊可即時進行問題排除、韌體調整與效能調校,確保系統無縫整合,並發揮最佳產品效能。 透過直接接觸我們的支援工程師與先進工具,aiDAPTIV™ 客戶與合作夥伴可加速產品上市時程,同時最大化 AI 工作負載的投資報酬率。

SEAMLESS INTEGRATION

  • Optimized middleware to extends GPU memory capacity
  • 2x 2TB aiDAPTIVCache to support 70B model
  • 低延遲

HIGH ENDURANCE

  • 業界領先,高達100次的五年內每日寫入次數(DWPD)
  • 採用業界先進NAND 糾錯算法的SLC NAND

aiDAPTIV+ BENEFITS

  • 隨插即用,無縫整合
  • 無需修改現有 AI 應用
  • Reuse existing HW or add nodes

aiDAPTIV+ MIDDLEWARE

  • 模型自動分割與 GPU 資源調度
  • Hold pending slices on aiDAPTIVCache
  • Swap pending slices w/ finished slices on GPU

FOR SYSTEM INTEGRATORS

  • Access to ai100E SSD
  • Middleware library license

  • Full Phison support to bring up