最具创新 AI 应用
银质奖
最佳学习与人才科技
aiDAPTIV™ 技术支持在企业防火墙内进行大语言模型(LLM)训练,确保数据全程保留在私有环境中。企业可完全掌控敏感数据,满足数据主权及相关合规要求,安全无忧地部署 AI 应用。
无论在家中、办公室、教室还是数据中心,都可轻松部署 aiDAPTIV™。设备小巧,仅需普通电力和冷却设备即可运行。 用户可选择通过命令行操作或直观图形界面(GUI),并使用一体化工具套件完成模型导入、微调、验证与推理。
aiDAPTIV™ 将昂贵的 HBM 与 GDDR 显存需求卸载至高性价比的闪存 (NAND Flash),大幅降低对 GPU 的依赖,从而有效减少整体硬件开支。同时,该技术还能降低 MoE 模型所需的 DRAM 占用,并将海量数据保留在本地,避免跨系统数据传输的额外成本。
相较于云端运算,aiDAPTIV™ 可在本地 PC 与边缘设备上运行大型语言模型(LLMs),以更低的成本、更少的计算资源与更低的功耗完成推理。同时提升响应速度,并支持更多上下文内容,以提供更精准、定制化的回答,并确保数据保持私有性与主权可控。
搭载 aiDAPTIV™ 技术的 Edge AI 设备,可加速 LLM 推理的首 Token 延迟(TTFT),同时支持更大规模的模型与更长的上下文,提供更详尽、更精准的响应。
搭载 GPU 及 aiDAPTIV™ 技术的 AI 笔记本电脑,让用户可以在家中、办公室或教室学习如何训练 LLM。此外,您也能在本地部署并运行训练过的 LLM,并通过模型扩充其数据,使其提供更为量身定制的推理应答。使用 aiDAPTIV 技术还能缩短提示回应时间,并支持更多上下文,产生更长且更精准的回答。
通过 aiDAPTIV™ 技术进行本地部署 LLM 训练,帮助企业及个人将特定领域的数据整合进通用知识模型中,提高模型在如医疗诊断、财务预测、法律分析及产品开发等各类专业领域的可用性、相关性及准确性。
使用命令行界面,或通过 aiDAPTIV 技术驱动的直观化整合方案,快速完成 LLM 训练。
Supported Models
Supported Models
内置高效内存管理方案
体验无缝的 PyTorch 兼容性,无需调整 AI 应用程序即可轻松扩展节点。系统供应商可获得 aiDAPTIV 快取记忆体 SSD、中间软件授权及群联电子的全方位支持,助您顺利完成系统整合。
无缝扩展 GPU 内存
中间软件技术打破硬件限制,通过缓存大幅扩展显存:为 PC 注入额外 320GB、工作站与服务器更可扩展至 8TB,完美支持低延迟 LLM 训练。此外,凭借专属 SSD 设计与先进 NAND 纠错算法,提供业界领先的 100 DWPD 高耐久度。
aiDAPTIV™ 硬件与软件技术能通过加速首 Token 延迟(TTFT)来实现更快速的响应,提升推理使用体验,同时延长 Token 长度,提供更丰富的上下文,从而生成更长且更准确的回答。
aiDAPTIV™ 通过整合闪存与 DRAM,提供更大的内存资源,使模型规模不再受限于 GPU 显卡的 HBM 或 GDDR 内存容量。
这让您能够训练更大规模的模型,并以更具性价比的方式完成过去仅大型企业和云服务供应商才能承担的计算任务。
Phison 专属技术支援团队为 aiDAPTIV™ 技术提供全生命周期的端到端支援,涵盖从初期导入、部署到后续营运与持续优化。 我们的专家团队可即时进行问题排除、韧体调整与效能调校,确保系统无缝整合,并发挥最佳产品效能。 透过直接接触我们的支援工程师与先进工具,aiDAPTIV™ 客户与合作伙伴可加速产品上市时程,同时最大化 AI 工作负载的投资回报率。