
随着采用Panther Lake处理器的AI PC开卖,端侧AI不仅获得了更强的AI算力、续航和游戏体验,终端形态也因为芯片算力提升、能耗降低而重新调整内部形态,1.2kg以下的轻薄型笔记本电脑开始变得司空见惯,基于Windows系统平台的游戏掌机也伴随着iGPU性能大幅提升获得优秀体验。
事实上不局限于Panther Lake,在CES 2026期间,基于新一代骁龙X2 Elite Extreme和Ryzen AI 400系列的轻薄型笔记本、掌机、平板等端侧AI设备蓄势待发,以往要依靠台式机级别的独立GPU才能处理简单的生成式AI应用,现在仅依靠65W左右的便携式供电就能实现丰富的AI应用,实际上是业界共同努力的结果。
核心硬件缺一不可
AI PC硬件基本上围绕CPU、NPU、GPU、内存、存储五个核心组件,每个硬件都承担了不同AI场景的工作。例如被经常提到的NPU主要是考虑在节能的前提下,实现离电状态下的AI加速,GPU则是生成式AI、AI智能体等重负载的主要承担硬件,CPU则需要快速响应,给AI应用的启动和资源提供调度。
另一方面,内存和存储也已经在AI PC中承担起了非常重要的角色。由于AI模型加载、多任务切换、大语言模型本地运行均需要大内存的支持,16GB内存其实不大能满足多模型切换和调用的需要,32GB DDR5被认为是支撑AI应用流畅体验的基本盘。但受限于成本,内存不可能像SSD存储那般提供更大的容量,64GB以上的内存容量对于消费级AI PC而言相对少见,128GB以上基本属于工作站的范畴了。
相对应的,512GB起步的SSD则能够很好的满足AI的扩容,特别是随着BiCS 8在SSD中普及,高性能、高容量密度的闪存允许SSD向1TB以上发展,甚至可以制造出2TB、4TB甚至更高容量的产品。

在CES 2026期间发布的铠侠BG7系列就是使用了BiCS 8以及CBA技术的消费级解决方案,它针对OEM、ODM等移动端侧AI设备设计,其随机读/写速度高达 1,000,000 IOPS,顺序读取速度高达7,000 MB/s,性能较前代KIOXIA BG6系列提升约10%至16%,兼顾能效和存储,除了常规的M.2 2280外形,还提供M.2 2230和M.2 2242可选,是理想的端侧AI扩容方案之一。

云端协同
AI大模型的不断升级,指望端侧AI在本地实现AI的全部应用不太现实。通常而言,将语音识别、图像分类、实时翻译等低延迟要求的任务,由端侧NPU/CPU处理,响应时间控制在100ms以内提升使用体验。更复杂的任务则交给云端GPU集群处理,包括大语言模型推理、复杂图像生成、多模态分析等算力密集型任务。
无论是边缘节点、还是云端承担的AI任务,除了强大的GPU之外,也需要更多的缓存提供支持。因此大容量数据中心级SSD也变得尤为关键,可以在存储性能,数据吞吐能力和可靠性三个维度的关键支撑,直接影响AI训练和推理的效率和成本。比如面对PB级的海量训练数据集,百万级IOPS可以将数据加载时间压缩到以秒为单位,避免GPU因等待数据而闲置,同时也能支持多模型并行,满足A/B测试、灰度发布等应用场景。
铠侠CD9P 系列固态硬盘能够满足云端AI计算的严苛要求,符合PCIe 5.0、NVMe 2.0、NVMe-MI 1.2c标准,顺序读取性能可达14.8GB/s,随机读写性能可达2,600KIOPS(QD512)和750KIOPS (QD32)。

不仅如此,铠侠还发布了高达245.76TB的LC9系列SSD,可帮助企业管理PB级数据,实现基础设施现代化,以支持生成式AI和机器学习应用。为AI云端和边缘部署提供了更多可能性。

端侧AI能力正以超乎想象的速度发展,100+ TOPS开始变得司空见惯,更多AI任务可以实现本地化。同时,边缘计算的普及、模型压缩的突破,为端侧和边缘快速执行AI应用提供了可能。随着ONNX、TensorFlow Serving等框架完善,云端、边缘、端侧合力提供流畅的AI体验变得近在咫尺。端侧与云端AI协同不再是简单的本地、云端二选一,而是根据任务特性、网络条件、隐私要求等因素动态调度的智能系统。无论系统如何部署,优秀的存储解决方案都将成为AI应用的基础保障,这也正是铠侠所擅长的工作。