aiDAPTIV TM

更快的 AI 推理性能与更大规模的 LLM 训练,全程在本地部署(On-Prem)私有环境中完成 

2024 FMS Best of Show

最具创新 AI 应用

2025 台湾精品奖

银质奖

2025 LearnX 金奖

最佳学习与人才科技

私有AI运算 

简单易用,一键部署 

量身定制,预算无压力 

私有部署 

aiDAPTIV™ 技术支持在企业防火墙内进行大语言模型(LLM)训练,确保数据全程保留在私有环境中。企业可完全掌控敏感数据,满足数据主权及相关合规要求,安全无忧地部署 AI 应用。

轻松上手 

无论在家中、办公室、教室还是数据中心,都可轻松部署 aiDAPTIV™。设备小巧,仅需普通电力和冷却设备即可运行。 用户可选择通过命令行操作或直观图形界面(GUI),并使用一体化工具套件完成模型导入、微调、验证与推理。

经济高效 

aiDAPTIV™ 将昂贵的 HBM 与 GDDR 显存需求卸载至高性价比的闪存 (NAND Flash),大幅降低对 GPU 的依赖,从而有效减少整体硬件开支。同时,该技术还能降低 MoE 模型所需的 DRAM 占用,并将海量数据保留在本地,避免跨系统数据传输的额外成本。

Edge/IoT/Robotics

AI Notebook PC

Desktop

Workstation PC

快速、私有的地端推理,随处部署

相较于云端运算,aiDAPTIV™ 可在本地 PC 与边缘设备上运行大型语言模型(LLMs),以更低的成本、更少的计算资源与更低的功耗完成推理。同时提升响应速度,并支持更多上下文内容,以提供更精准、定制化的回答,并确保数据保持私有性与主权可控。

模型训练尽在掌握 

aiDAPTIV™ 技术搭载的 AI 训练 PC,让个人与组织轻松学习如何微调大语言模型,而不仅仅是简单推理。通过本地数据进行 LLM 训练,有效缓解专业人才短缺问题。

释放IoT边缘运算及机器人技术 

搭载 aiDAPTIV™ 技术的 Edge AI 设备,可加速 LLM 推理的首 Token 延迟(TTFT),同时支持更大规模的模型与更长的上下文,提供更详尽、更精准的响应。

随时随地,借助 AI 笔记本电脑训练 AI 模型 

搭载 GPU 及 aiDAPTIV™ 技术的 AI 笔记本电脑,让用户可以在家中、办公室或教室学习如何训练 LLM。此外,您也能在本地部署并运行训练过的 LLM,并通过模型扩充其数据,使其提供更为量身定制的推理应答。使用 aiDAPTIV 技术还能缩短提示回应时间,并支持更多上下文,产生更长且更精准的回答。

LLM训练应用场景 

通过 aiDAPTIV™ 技术进行本地部署 LLM 训练,帮助企业及个人将特定领域的数据整合进通用知识模型中,提高模型在如医疗诊断、财务预测、法律分析及产品开发等各类专业领域的可用性、相关性及准确性。

Pascari aiDAPTIV™ LLM 训练整合方案

Pro Suite

使用命令行界面,或通过 aiDAPTIV 技术驱动的直观化整合方案,快速完成 LLM 训练。

Supported Models

  • Llama, Llama-2, Llama-3, CodeLlama
  • Mistral, Mixtral, Qwen, DeepSeek
  • Phi, Gemma, Vicuna, Falcon
  • Whisper, LLaVA, Qwen-VL, InternVL
  • TAIDE(Breeze 系列)
  • 持续新增更多模型

aiDAPTIV Pro Suite 

Supported Models

  • Llama, Llama-2, Llama-3, CodeLlama
  • Mistral, Mixtral, Qwen, DeepSeek
  • Phi, Gemma, Vicuna, Falcon
  • Whisper, LLaVA, Qwen-VL, InternVL
  • TAIDE(Breeze 系列)
  • 持续新增更多模型
and/or

高效能记忆体管理中介软件

内置高效内存管理方案

体验无缝的 PyTorch 兼容性,无需调整 AI 应用程序即可轻松扩展节点。系统供应商可获得 aiDAPTIV 快取记忆体 SSD、中间软件授权及群联电子的全方位支持,助您顺利完成系统整合。

and

快取记忆体

无缝扩展 GPU 内存

中间软件技术打破硬件限制,通过缓存大幅扩展显存:为 PC 注入额外 320GB、工作站与服务器更可扩展至 8TB,完美支持低延迟 LLM 训练。此外,凭借专属 SSD 设计与先进 NAND 纠错算法,提供业界领先的 100 DWPD 高耐久度。

无缝整合

  • 优化的中间件以扩展 GPU 内存容量
  • 支援 671B 参数模型及更大规模 
  • 低延迟

高耐久度

  • 业界领先,高达100次的五年内每日写入次数(DWPD)
  • 采用业界先进NAND 纠错算法的SLC NAND

加强推论

aiDAPTIV™ 硬件与软件技术能通过加速首 Token 延迟(TTFT)来实现更快速的响应,提升推理使用体验,同时延长 Token 长度,提供更丰富的上下文,从而生成更长且更准确的回答。

释放模型无限潜能

aiDAPTIV™ 通过整合闪存与 DRAM,提供更大的内存资源,使模型规模不再受限于 GPU 显卡的 HBM 或 GDDR 内存容量。

这让您能够训练更大规模的模型,并以更具性价比的方式完成过去仅大型企业和云服务供应商才能承担的计算任务。

资源

行业支持

技术支持

Phison 专属技术支援团队为 aiDAPTIV™ 技术提供全生命周期的端到端支援,涵盖从初期导入、部署到后续营运与持续优化。 我们的专家团队可即时进行问题排除、韧体调整与效能调校,确保系统无缝整合,并发挥最佳产品效能。 透过直接接触我们的支援工程师与先进工具,aiDAPTIV™ 客户与合作伙伴可加速产品上市时程,同时最大化 AI 工作负载的投资回报率。

SEAMLESS INTEGRATION

  • Optimized middleware to extends GPU memory capacity
  • 2x 2TB aiDAPTIVCache to support 70B model
  • 低延迟

HIGH ENDURANCE

  • 业界领先,高达100次的五年内每日写入次数(DWPD)
  • 采用业界先进NAND 纠错算法的SLC NAND

aiDAPTIV+ BENEFITS

  • 即插即用,无缝集成
  • 无需修改现有 AI 应用
  • Reuse existing HW or add nodes

aiDAPTIV+ MIDDLEWARE

  • 模型自动分割与 GPU 资源调度
  • Hold pending slices on aiDAPTIVCache
  • Swap pending slices w/ finished slices on GPU

FOR SYSTEM INTEGRATORS

  • Access to ai100E SSD
  • Middleware library license

  • Full Phison support to bring up