最具創新 AI 應用
銀質獎
最佳學習與人才科技
aiDAPTIV™ 技術支援在企業防火牆後方進行大型語言模型(LLM) 訓練,讓資料全程留在私有環境中,企業可完全掌控敏感資料,並符合資料主權相關合規要求,安心導入 AI 應用。
無論在家中、辦公室、教室或資料中心,都能輕鬆部署 aiDAPTIV™。其體積小巧,只需一般電力與冷卻設備即可運作。 使用者可選擇透過指令列操作或直覺化圖形介面(GUI),並利用整合式工具套件完成模型導入、微調、驗證與推論。
aiDAPTIV™ 將昂貴的 HBM 與 GDDR 記憶體卸載至成本效益更高的快閃記憶體,大幅降低對GPU的需求,從而有效減少整體硬體支出。同時,亦能降低 MoE 模型所需的 DRAM 用量,並將大型資料集保留於本地,避免跨系統資料傳輸的額外成本。
相較於雲端運算,aiDAPTIV™ 可在本地 PC 與邊緣裝置上執行大型語言模型(LLMs),以更低的成本、更少的運算資源與更低的功耗完成推論。同時提升回應速度,並支援更多情境內容,以提供更精準、貼近需求的回答,並確保資料留在地端,符合隱私並維護資料主權。
搭載 aiDAPTIV™ 技術的 Edge AI 裝置,可加速 LLM 推論的首 Token 延遲(TTFT),同時支援更大型的模型與更長的上下文,提供更長、更精準的回應。
搭載 GPU 及 aiDAPTIV™ 技術的 AI 筆記型電腦,讓使用者可在家中、辦公室或教室學習如何訓練 LLM。此外,您也能在本地部署並運行訓練過的 LLM,並透過模型擴充其資料,使其提供更為量身定制的推論應答。使用 aiDAPTIV 技術還能縮短提示回應時間,並支援更多上下文,產生更長且更精準的回答。
透過 aiDAPTIV™ 技術進行本地部署 LLM 訓練,幫助企業及個人將特定領域的資料整合進通用知識模型中,提高模型在如醫療診斷、財務預測、法律分析及產品開發等各式專業領域的可用性、相關性及準確性
使用指令列介面或透過 aiDAPTIV 技術驅動的直覺化整合方案,快速完成 LLM 訓練。
Supported Models
Supported Models
內建高效記憶體管理方案
體驗無縫的PyTorch相容性,無需調整AI應用程式,輕鬆新增節點。系統供應商可取得 aiDAPTIV 快取記憶體 SSD、中介軟體授權及群聯電子的全方位支援,輕鬆完成系統整合。
無縫擴展GPU記憶體
中介軟體技術打破硬體限制,透過快取記憶體大幅擴展 GPU 記憶體:為 PC 注入額外 320GB、工作站與伺服器更可擴充至 8TB,完美支援低延遲 LLM 訓練。此外,憑藉專屬 SSD 設計與先進 NAND 糾錯算法,提供業界領先的 100 DWPD 高耐久度。
aiDAPTIV™ 硬體與軟體技術能透過加速首 Token 延遲(TTFT)來實現更快速的回應,提升推論使用體驗,並同時延長 Token 長度,提供更豐富的上下文,從而生成更長且更準確的回答。
aiDAPTIV™ 透過整合快閃記憶體與 DRAM,提供更大的記憶體資源,使模型規模不再受限於 GPU 顯示卡的 HBM 或 GDDR 記憶體容量。
這讓您能夠訓練更大規模的模型,並以更實惠的方式運行過去只有大型企業和雲端服務供應商才能承擔的工作負載。
Phison 專屬技術支援團隊為 aiDAPTIV™ 技術提供全生命週期的端到端支援,涵蓋從初期導入、部署到後續營運與持續優化。 我們的專家團隊可即時進行問題排除、韌體調整與效能調校,確保系統無縫整合,並發揮最佳產品效能。 透過直接接觸我們的支援工程師與先進工具,aiDAPTIV™ 客戶與合作夥伴可加速產品上市時程,同時最大化 AI 工作負載的投資報酬率。