高通技术公司发布AI200和AI250,重新定义AI时代机架级数据中心推理性能

1.png

要点:

  • Qualcomm® AI200AI250解决方案以业界先进的总体拥有成本(TCO),为高速数据中心生成式AI推理提供机架级(rack-scale)性能与卓越内存容量。Qualcomm AI250引入创新内存架构,为AI工作负载带来有效内存带宽与能效的跨越性提升。

  • 两款解决方案均配备丰富的软件栈,并与主流AI框架无缝兼容,助力企业与开发者跨数据中心部署安全、可扩展的生成式AI

  • 这些产品是高通技术公司多代数据中心AI推理技术路线图的一部分,并以年度为迭代周期。

20251028日,圣迭戈——高通技术公司今日宣布,推出面向数据中心的下一代AI推理优化解决方案:基于Qualcomm AI200AI250芯片的加速卡及机架系统。依托公司在NPU技术领域的优势,这些解决方案提供机架级性能与卓越的内存容量,能够以出色的每美元每瓦特的高性能赋能高速生成式AI推理,为推动各行业可扩展、高效率、高灵活性的生成式AI部署树立重要里程碑。

Qualcomm AI200带来专为机架级AI推理打造的解决方案,旨在为大语言模型(LLM)与多模态模型(LMM)推理及其他AI工作负载提供低总体拥有成本与优化性能。每张加速卡支持768GB LPDDR内存,实现更高内存容量与更低成本,为AI推理提供卓越的扩展性与灵活性。

Qualcomm AI250解决方案将首发基于近存计算(Near-Memory Computing)的创新内存架构,实现超过10倍的有效内存带宽提升并显著降低功耗,为AI推理工作负载带来能效与性能的跨越性提升。该架构支持解耦式AI推理,实现硬件资源的高效利用,同时满足客户性能与成本需求。

两款机架解决方案均支持直接液冷散热,以提升散热效率,支持PCIe纵向扩展与以太网横向扩展,并具备机密计算,保障AI工作负载的安全性,整机架功耗为160千瓦。

2.png

高通技术公司高级副总裁兼技术规划、边缘解决方案和数据中心业务总经理马德嘉(Durga Malladi)表示:凭借Qualcomm AI200AI250,我们正在重新定义机架级AI推理的可能性。这些创新的AI基础设施解决方案能够让客户以业界先进的总体拥有成本部署生成式AI,同时满足现代数据中心对灵活性与安全性的要求。我们拥有丰富的软件栈与开放生态支持,能够支持开发者和企业更加轻松地基于我们的优化AI推理解决方案,集成、管理并扩展完成训练的AI模型。基于与主流AI框架的无缝兼容性和一键模型部署功能,Qualcomm AI200AI250旨在支持无缝应用与快速创新。

我们的超大规模级AI软件栈,覆盖从应用层到系统软件层的全链路,专为AI推理优化。该软件栈支持主流机器学习(ML)框架、推理引擎、生成式AI框架,以及解耦服务等LLM/LMM推理优化技术。开发者可通过高通技术公司的高效Transformer库(Efficient Transformers Library)与 Qualcomm® AI Inference Suite,实现模型无缝接入及Hugging Face模型的一键部署。我们的软件提供开箱即用的AI应用与智能体、完善工具、库、API接口及AI运营化服务。

Qualcomm AI200AI250预计将分别于2026年和2027年实现商用。未来,高通技术公司将致力于按照年度迭代节奏,持续推进公司数据中心产品技术路线图,聚焦业界先进的AI推理性能、能效与总体拥有成本优势。了解更多信息,请访问官方网站

关于高通公司

高通公司坚持不懈地创新,让智能计算无处不在,助力全球解决一系列重大的挑战。依托公司40年来持续打造划时代突破性技术的领导力,我们提供一系列由先进的AI、高性能低功耗计算和连接所支持的丰富解决方案组合。我们的骁龙旗下的产品赋能非凡的消费者体验,而我们的高通跃龙产品助力企业和行业跃上新高度。我们携手生态系统合作伙伴赋能下一代数字化转型,丰富人们的生活、改善企业业务并推动社会进步。在高通,我们用科技成就人人向前。

高通公司包括技术许可业务(QTL)和我们绝大部分的专利组合。高通技术公司(QTI)是高通公司的全资子公司,与其子公司一起运营我们所有的工程、研发活动以及所有产品和服务业务,其中包括半导体业务QCT。骁龙、高通以及其他SnapdragonQualcomm旗下的产品系高通技术公司和/或其子公司的产品。高通专利技术由高通公司许可。