重新定義企業級 AI 推論 ─ 採用 aiDAPTIV™

在日常裝置上實現快速、私有的 LLM 推論—— 不再依賴無止盡的高昂雲端費用。

更快的推論,且全程本地部署

Pascari aiDAPTIV 可將本地 PC、工作站與 IoT 邊緣系統,轉化為高效、具機密性的 AI 推論引擎,簡易部署,開箱即用。無雲端延遲。無資料外洩風險。讓 AI 在工作與學習的地方即時運行。

根據 Phison 測試,aiDAPTIV 在筆記型電腦上可實現最高 10 倍更快的推論回應速度,以及最高 102 倍更快的首 Token 延遲(TTFT)。

跳脫雲端,展現是真正的成本優勢

aiDAPTIV 讓客製化訓練的 AI 模型能在地端順暢運行,提供一套簡單、安全且具成本效益的推論解決方案。
  • 即插即用,簡易部署
  • 高成本效益
  • 支援多種裝置形態
  • 100% 地端資料隱私

aiDAPTIV 如何在日常裝置上實現 AI 推論

此方案結合 aiDAPTIV 快取記憶體與智慧軟體,讓一般的 PC、工作站及邊緣運算系統,也能具備流暢且可靠的大語言模型(LLM)推論能力。

隨著 LLM 對話內容的長度與複雜度增加,模型必須以 KV 快取(KV Cache)的形式保留大量的上下文「記憶」。當此需求超過 GPU VRAM 的容量上限時,系統往往會因為重複運算或 GPU 閒置,導致效能大幅衰退。 aiDAPTIV 透過 NAND Flash 擴充 GPU 的可用記憶體空間,並透過智能數據配置管理,確保資料在 GPU 需要的時刻,可即時到位。

這個結果不僅帶來持續穩定的 GPU 利用率、可預測的延遲表現,並針對長提示詞(Long Prompts)與 AI 代理人(Agentic AI)工作流,提供更順暢的使用者體驗。

  • 在支援更長上下文的同時,提供更快速的回應
  • 推論結果更精準,且更具相關性
  • 完整的資料隱私與主權控管
  • 無需重新設計推論流程或調整模型架構

應用情境

領域專屬的 Copilot 與聊天機器人

RAG 與文件理解
程式碼助理與開發工具
支援代理式(Agentic)與長上下文工作流程
學習與實驗環境

How aiDAPTIV helps

利用本地資料打造符合企業或教學內容需求的 AI 助手, 無需將資料暴露於第三方雲端環境。
在本地端執行檢索增強生成(RAG)流程,從內部文件、操作手冊、研究資料或紀錄中回答問題,同時確保高機敏內容維持私有、不對外流。
在安全的工作站環境中部署地端程式碼 Copilot, 使其能理解你的倉儲、建置系統與內部函式庫。
透過為模型提供更大的工作記憶體空間,在不犧牲推論延遲的情況下,支援多步驟 代理任務、更長的對話歷程,以及更豐富的工具使用。
為團隊與學生提供實作環境,在本地硬體上以真實工作負載,親自探索大型語言模型(LLMs)的行為模式、安全機制與效能評估。

應用情境

aiDAPTIV™ 如何幫助

領域專屬的 Copilot 與聊天機器人

利用本地資料打造符合企業或教學內容需求的 AI 助手, 無需將資料暴露於第三方雲端環境。

RAG 與文件理解
在本地端執行檢索增強生成(RAG)流程,從內部文件、操作手冊、研究資料或紀錄中回答問題,同時確保高機敏內容維持私有、不對外流。
程式碼助理與開發工具
在安全的工作站環境中部署地端程式碼 Copilot, 使其能理解你的倉儲、建置系統與內部函式庫。
支援代理式(Agentic)與長上下文工作流程
透過為模型提供更大的工作記憶體空間,在不犧牲推論延遲的情況下,支援多步驟 代理任務、更長的對話歷程,以及更豐富的工具使用。
學習與實驗環境
為團隊與學生提供實作環境,在本地硬體上以真實工作負載,親自探索大型語言模型(LLMs)的行為模式、安全機制與效能評估。

選擇你的推論配置

aiDAPTIV™ 透過延伸 GPU 可用的記憶體空間,讓地端 AI 推論得以在多種個人電腦與工作站裝置形態中實現。並能依據實際工作負載,在成本、效能與容量之間取得合適的平衡。

筆記型電腦

支援中型語言模型的可攜式地端推論服務,即時互動、隨開即用。

桌上型電腦

為團隊、實驗室與小型部門提供穩定可靠的地端 AI 推論服務。

桌上型工作站

適用於大型模型、更長上下文,或多位使用者同時推論的高負載系統配置。

歡迎與我們洽談 AI 推論方案

對於效能、模型規模或硬體配置有任何疑問嗎? 群聯技術團隊可協助您選擇最合適的設定, 並了解在實際工作負載下的預期表現。

聯繫我們

對 aiDAPTIV™ 在您的環境中如何運作有疑問?需要協助選擇合適的解決方案或了解效能預期?

我們隨時為您提供協助-從技術諮詢到採購決策,我們都能為您解答。請填寫表格,aiDAPTIV™ 團隊成員將盡快與您聯繫。

SEAMLESS INTEGRATION

  • Optimized middleware to extends GPU memory capacity
  • 2x 2TB aiDAPTIVCache to support 70B model
  • 低延遲

HIGH ENDURANCE

  • 業界領先,高達100次的五年內每日寫入次數(DWPD)
  • 採用業界先進NAND 糾錯算法的SLC NAND

aiDAPTIV+ BENEFITS

  • 隨插即用,無縫整合
  • 無需修改現有 AI 應用
  • Reuse existing HW or add nodes

aiDAPTIV+ MIDDLEWARE

  • 模型自動分割與 GPU 資源調度
  • Hold pending slices on aiDAPTIVCache
  • Swap pending slices w/ finished slices on GPU

FOR SYSTEM INTEGRATORS

  • Access to ai100E SSD
  • Middleware library license

  • Full Phison support to bring up