
作者:Bob O’Donnell
当今高科技领域最令人瞩目的进展之一,是量子计算正逐步从理论走向现实。历经数十年的理论探索与技术积累,这一颠覆传统且极其复杂的新型计算范式,近年来已取得一系列实质性突破。量子计算机通过翻转单个原子的电荷,并借助量子纠缠效应使其同时处于多个状态,从而执行计算。其运作方式和速度足以解决极其复杂的问题,这些问题如果使用传统计算机处理,可能需要数年甚至数百年才能完成计算。
量子计算机虽潜力巨大,却也为密码学等领域带来了新的挑战与隐忧。在现代计算系统中,密码学通过运用复杂的数学算法,对处理中的数据进行加密扰码。因此,需要有解密的数字密钥才能读取和使用这些数据。量子计算带来的挑战在于:无论是用于数据加密的底层算法,还是数字密钥的生成与交换机制,在量子计算机面前都可能不再安全。这样一来,攻击者就有可能还原被加密的数据并获取其中的信息。
毋庸置疑,这构成了严峻挑战。全球大量企业、政府和组织仍在使用传统算法加密海量数据,并依赖存在安全隐患的公私钥分发机制。为保障这些数据的安全,业界已研发出能抵御量子计算攻击的新型加密方法与密钥交换协议,这些技术被统称为后量子密码学(PQC)。
目前,业界仍然普遍认为量子计算机在数年之后(2030-2035年)才会真正具备这种破解能力。然而更紧迫的威胁在于,已有不少攻击者已经开始盗取加密数据,企图等到未来量子计算机真正攻破现有加密体系时,再对数据进行解密。这种被称为“先收集,后解密”(HNDL)的攻击手段,对政府或军方的机密信息、账户信息等需长期保密的数据构成了尤为严峻的威胁。
鉴于此,全球主要国家政府均已制定或正在积极制定新的算法、技术流程与合规要求以减轻量子计算带来的潜在风险。例如美国国家安全局(NSA)制定了《商业国家安全算法套件2.0》(CNSA 2.0)政策体系,美国国家标准与技术研究院(NIST)则建立了FIPS 202/203标准体系来应对此类问题。这些被全球广泛采纳的规范和标准不仅集成了多种量子安全加密算法,还还支持基于晶格密码学与基于哈希的数字签名等前沿密码技术。按照规划,部分核心行业与应用场景将于今年年底前率先实施新规,并计划在2027年实现更广泛领域的关键部署。
但仅有政策和算法还远远不够,还需要将后量子密码学(PQC)部署于计算设备和软件平台中以确保其具备运行能力。这看似简单,实则需要建立一个多层次的安全防护体系,涵盖从设备认证(即声明设备功能与能力声明)、固件更新安全要求、存储密钥的硬件可信根,并最终延伸至安全环境下的芯片制造全流程。
换言之,为全面实现后量子密码学(PQC),仅靠为计算设备集成支持新型加密算法与密钥交换协议的专用芯片还远远不够。例如,密钥交换过程中的一个关键环节是确保计算链中每个设备的可信性。这便要求设备在固件层搭载嵌入式认证软件,通过其在芯片制造阶段即被植入的唯一ID,完成设备身份的自主验证。
加密/解密过程通常在设备首次启动时进行,此时首个通电并启动工作流程的芯片虽然运行时间极为短暂,却承担着不可或缺的关键职能。该芯片会向设备BIOS/固件“宣告”自身身份,并将该信息传递至操作系统。随后,当加密/解密过程中需要交换密钥时,该芯片会提供密钥及其唯一ID,向连接另一端的设备保证其安全性。当然实际情况更为复杂,但基本运作原理就是如此。这也充分解释了必须确保链路中首颗芯片始终保持初始状态且不受篡改的根本原因:整个安全与加密操作序列均以其为信任根基。
这同样解释了为何需要确保基础芯片固件更新或修改的高度安全,否则整条安全链就会崩溃。由于部分核心加密算法和密钥交换机制也存储于基础芯片中,且会随着算法演进进行必要更新,其更新过程本身通常也会采用加密技术,从而进一步强调了该环节对安全性的高度要求。
在一块芯片上集成所有功能的难度很大,因为这并非由主处理器负责执行,而是需要通过一个在低功耗环境下运行的小型控制芯片来完成。这正是莱迪思半导体MachXO5™-NX TDQ FPGA的用武之地。这款小封装芯片通过设备标识符组合引擎(DICE)、安全协议与数据模型(SPDM)等技术生成唯一的设备ID,并配备两组独立闪存模块支持固件升级和安全启动。此外,该芯片同时集成传统加密算法与后量子加密算法,并具备同时支持两类算法的灵活性,可以满足不同机构在两种算法间切换时的位流与数据安全需求更重要的是,芯片引入了基于PQC的加密与验证机制,确保关键密钥交换过程满足量子安全要求,从而有效抵御“先收集,后解密”(HNDL)的攻击威胁。
Bob O’Donnell是市场研究公司TECHnalysis Research的总裁兼首席分析师,该公司为技术行业和专业金融领域提供战略咨询和市场研究服务。
