All Node List by Editor

winniewei的头像
winniewei

何金池, IBM科技事业部资深架构师

面向分布式高性能计算 (HPC) 的工作负载调度系统和资源管理平台。

现在搞大模型,GPU芯片就是命根子,没有高性能的GPU芯片,大模型跑不动,大模型的应用也玩不转。所以高性能芯片的研发就变得非常关键,就拿一个7nm芯片的仿真来说,每分钟能喷涌出,几千个甚至上万个作业,可能会瞬间挤爆计算资源。那如何把成千上万个作业有序的调度到大规模的集群中呢?这时候,就得请出HPC(高性能计算)调度界的"大宗师"——IBM Spectrum LSF!

视频:高性能计算调度届的"大宗师"——IBM Spectrum LSF

视频:高性能计算调度届的"大宗师"——IBM Spectrum LSF

在大模型     子半  体是当前技    的关 键领   IBM  Spectrum LSF 如何助力半  体企 业应对 AI  代的高性能芯片需求?

作为HPC调度领域的扛把子,LSF经过三十年的发展,但凡你想到调度的这种需求,基本都能满足。LSF有一系列的智能调度策略,可以让作业在最合适的资源,以最快的速度来完成。比如说对一些关键的作业,LSF会开绿灯,保证高优先级的作业插队完成,低优先级的作业先靠边站。也可以根据作业的一些依赖关系编排工作流。同时,LSF还会实时的扫描整个集群的状态,然后发现哪个服务器在偷水摸鱼就会立刻抓出来,给他安排上合适的作业。

这里我分享一个半导体客户的案例。他在芯片仿真过程中,遇到了作业不能及时完成、资源利用率低的情况,导致产品的上市周期非常长。用了LSF之后,他的资源利用率暴增40%,芯片仿真的验证周期几乎缩短到了原来的一半。原来一个作业要等很长时间才能出结果,现在可以说,温酒斩华雄,工程师泡的咖啡还没凉,作业已经算完了。

LSF如何助力企业降本增效? 

LSF不光可以帮企业增效,也可以降本。比如说,在EDA(Electronic Design Automation,电子设计自动化)软件里,有一些商业的许可证非常昂贵,贵到让人怀疑人生。曾经有一个半导体客户,他每年购买EDA的软件的商业许可证,要花费几千万的美金。对于普通的调度器来说,他只管硬件资源,不管像许可证这样的一些其他资源的调度。而LSF作为调度界的"瑞士军刀",它有一个功能模块叫做 Licenses Scheduler,是业界唯一具备的功能,可以帮助企业去调度商业许可证,按需分配,不用的时候及时收回,还可以跨项目的去调度这个许可证。就拿刚才的案例来说,这个半导体企业利用LSF Licenses Scheduler功能模块,它的许可证利用率暴涨了38%,还避免了因为没有License的时候,经常导致作业失败的情况。所以LSF帮助企业省钱的同时,还提高了工作效率,真正做到了一举两得。

IBM Spectrum LSF的独特优势有哪些?

首先,LSF被称为"瑞士军刀",就是因为它强悍的性能和丰富的功能。LSF同时可以支持几千个用户向它提交作业,可以同时管理几百万个作业。LSF的功能也非常齐全,基本上我们看到在HPC这种场景下看到的需求,不管是作业管理、作业编排、作业调度、作业监控,LSF都可以满足。其他这种调度软件,它可能只满足一些基本的调度需求,对于一些高性能的策略,更智能的策略,它是没有的。还有一些,比如说商业许可证调度功能,其他调度软件也是没有的。

另一方面,IBM具有全世界范围内7x24小时的专业支持团队。如果您在使用LSF过程中遇到问题,您随时可以登录我们的系统或拨打电话去寻求解决方案。这种贴身的专业支持,一些开源软件也是不具备的。

IBM Spectrum LSF的应用场景有哪些?

LSF的应用场景非常广泛。比较常见的,比如刚提到的芯片EDA的仿真,还有生命科学和生物制药,一些高端制造的CIE的场景,还有石油、天然气、天气预报、人工智能,以及一些超级的计算中心。

目前在芯片电子半导体企业,不管是大型的企业还是微创的企业,基本上我们看到百分之七八十已经在用了。还有一些医疗行业,因为我们跟一些医疗的软件可以无缝的集合起来,能做这种基因的检测,或者蛋白质的仿真。

在新冠期间,LSF是幕后英雄。它在新冠疫苗研发里起了非常大的作用。国外某家新冠疫苗研发企业,它使用了LSF来做它的作业调度,使得它的疫苗尽快的推上市场。

我们每天看精准的天气预报,比如说要刮大风,要下雨了,也是离不开LSF在幕后帮我们做的高性能的资源编排、作业的调度。

最后,我用14个字来总结 IBM Spectrum LSF:智能调度快如风,资源管理准又精。如果您遇到"作业算不过来" "资源管不过来"等问题,欢迎联系我们,IBM Spectrum LSF让您的超级计算不再"超级难"。

======================

关于 IBM

IBM 是全球领先的混合云、人工智能及企业服务提供商,帮助超过 175个国家和地区的客户,从其拥有的数据中获取商业洞察,简化业务流程,降低成本,并获得行业竞争优势。金融服务、电信和医疗健康等关键基础设施领域的超过 4000家政府和企业实体依靠 IBM 混合云平台和红帽 OpenShift 快速、高效、安全地实现数字化转型。IBM 在人工智能、量子计算、行业云解决方案和企业服务方面的突破性创新为我们的客户提供了开放和灵活的选择。对企业诚信、透明治理、社会责任、包容文化和服务精神的长期承诺是 IBM 业务发展的基石。

了解更多信息,请访问:https://www.ibm.com/cn-zh 

稿源:美通社

围观 37
评论 0
路径: /content/2025/100591879.html
链接: 视图
角色: editor
winniewei的头像
winniewei

在美国EDA断供的全面危机之时,中国半导体企业面临着芯片设计与系统设计工具的重重封锁与挑战。在此危局时刻,合见工软挺身而出!

中国数字EDA/IP龙头企业上海合见工业软件集团有限公司(简称“合见工软”)于今日正式向用户免费开放关键产品试用与评估服务!

合见工软首期开放国产首款高端大规模PCB设计平台UniVista Archer的免费试用!

合见工软新一代电子系统设计平台UniVista Archer,作为自主知识产权的国产首款高端大规模PCB设计平台,满足日益复杂的电子系统设计需求,解决高速、多层PCB设计中带来的设计与仿真挑战,为电子系统和PCB板级设计工程师带来更高的性能与可靠性,并支持客户历史设计数据导入,易学易用。UniVista Archer平台包括一体化PCB设计环境UniVista Archer PCB和板级系统电路原理设计输入环境UniVista Archer Schematic两款产品,采用全新的先进数据架构,部分产品性能大幅提升,精准洞察用户的需求习惯,大幅提升用户体验,满足用户的复杂功能需求,为现代复杂电子系统提供一体化的智能设计环境。

新一代电子系统设计平台UniVista Archer的三大优势:

  • 支持大规模PCB设计:PCB层数不受限制,pin数高达百万规模,满足复杂大规模电子系统的设计需求,同时保证高性能与高可靠性。

  • 支持客户历史设计数据导入:兼容性强,为设计师节省大量的时间和精力

  • 易学易用:支持根据用户的操作习惯和偏好定制快捷键、客制化菜单等,用户友好,轻松上手。

除PCB软件,合见工软其它EDA软件也可免费申请试用,包括:

数字验证EDA:

  • 国产首款高性能数字验证仿真器UniVista Simulator(简称UVS)

  • 国产自主一站式开放调试平台UniVista Debugger(简称“UVD”)

  • 虚拟原型设计与仿真工具套件UniVista V-Builder/vSpace

DFT全流程:

  • 国产可测性设计(DFT)全流程平台UniVista Tespert( BSCAN、MBIST、ATPG、DIAG、YIELD)

系统级设计软件:

  • 国产首款高端大规模PCB设计平台UniVista Archer(包含一体化PCB设计环境UniVista Archer PCB和板级系统电路原理设计输入环境UniVista Archer Schematic)

合见工软现对中国芯片设计公司与PCB设计企业开放全面的免费试用申请,如果您对以上软件有评估需求,请联络:

合见工软现有产品已覆盖数字芯片EDA工具、系统级工具及高端IP,是国内唯一一家可以完整覆盖数字芯片验证全流程,同时提供先进工艺高速互联IP的国产EDA公司。同时,合见工软的客户数量已超过200家,已服务国内绝大多数高端芯片设计企业,对数字大芯片公司关键项目的支持经验丰富,EDA软件经过了诸多实际项目的打磨迭代,同时技术支持服务团队水平过硬,快速支撑国产高端芯片设计需求,目标全面解决核心卡脖子问题。

面对美国EDA断供危机,合见工软迎难而上,用行动诠释使命担当,用创新突破壁垒,为中国用户保驾护航!

关于合见工软 

上海合见工业软件集团有限公司(简称“合见工软)作为自主创新的高性能工业软件及解决方案提供商,以EDA(电子设计自动化,Electronic Design Automation)领域为首先突破方向,致力于帮助半导体芯片企业解决在创新与发展过程中所面临的严峻挑战和关键问题,并成为他们值得信赖的合作伙伴。

了解更多详情请访问www.univista-isg.com

来源:合见工软 UNIVISTA

围观 87
评论 0
路径: /content/2025/100591875.html
链接: 视图
角色: editor
winniewei的头像
winniewei

1 (1).png

在光伏发电系统中,逆变器是实现直流-交流转换的核心设备,其性能直接决定电能转换效率和系统可靠性。作为电流检测的关键元件,传感器的精度、响应速度和温度稳定性对逆变器的控制精度与安全运行至关重要。多维科技(Dowaytech)基于专研多年的隧道磁电阻(TMR)技术,推出一系列高性能TMR电流传感器产品,为光伏逆变器提供精准、可靠的电流监测解决方案,助力新能源系统迈向更高能效。

2.jpg

光伏组串电流检测

光伏发电系统中,通常将多路工况相同的光伏组串并联接入到汇流箱或逆变器中,组串电流传感器是光伏面板的第一道监控单元,为满足设备有限的空间、穿线效率和安全性,TMR7307-C系列采用板载穿孔式设计,适用于MC4类型光伏接线端子的直插安装,减少了锁螺丝的节点,可选量程20A~50A,1μs快速响应延时。

3.png

TMR7307-C电流传感器

光伏组串直流拉弧电流检测

光伏组串具有直流高压,户外,线缆长,连接节点多的特点,当出现连接节点接触不良,线缆老化破损,绝缘失效时,在直流高压的作用下,就很可能产生直流拉弧且不具备自熄性,产生明火造成火灾等风险,TMR7307-CB系列提供双路独立输出,一路内置了高信噪比的拉弧电流调理测量单元,具有交流1V/A高灵敏度可选择带宽10k~120kHz2.5k~800kHz,另一路提供了常规电流测量, 可选择量程20A~50A,带宽DC~500kHz,提供了拉弧自检电流输入引脚用于系统拉弧检测功能自检,TMR7307-CB系列专用于光伏组串的安全电流检测。

4.png

TMR7307-CB电流传感器

MPPT控制与直流侧电流监测

光伏组件的输出功率受光照、温度等因素影响动态变化,MPPT控制需要根据电流和电压信息对DC/DC变换器的PWM驱动信号占空比进行调节,实时追踪最大功率点。多维科技TMR7303系列采用开环原理设计,板载式安装,额定量程10~120A,测量精度±1%,0.5μs快速响应时间,可精准测量DC/DC升压电路中MPPT控制所需的电流信号,助力光伏逆变器高效能量转换。

5.png

TMR7303电流传感器

漏电流检测与系统安全防护

非隔离型逆变器中,光伏板与地之间的寄生电容易引发漏电流风险。TMR7406系列专为漏电流检测设计,量程覆盖0.3A~5A,精度±2%,-3dB带宽500kHz,响应时间3μs以内,实时监测mA级微弱电流,可以为系统及时提供准确的异常状态预警信号,有效减少火灾事故发生频次。

6.png

TMR7406电流传感器

交流侧输出电流与过载保护

逆变器并网时需确保输出电流波形纯净且无过载。板载电流传感器TMR7304系列、TMR7559系列±0.8%误差,覆盖6A~75A小电流和100A~250A大电流持续精确检测,结合1μs级响应时间,可快速触发短路保护(<3μs),避免IGBT模块损坏。

7.png

TMR7304电流传感器

8.png

TMR7559电流传感器

储能系统充放电管理

在光储一体化场景中,TMR7553系列(闭环设计,常温下±0.1%误差)适配100A~300A电池电流监测,低温漂特性(±40ppm/K)确保-40°C+85°C环境下的长期稳定性,助力储能系统高效充放电控制。

9.png

TMR7553电流传感器

多维科技产品优势

相较于传统霍尔传感器,多维科技TMR电流传感器在光伏逆变器应用中表现突出:

 精度提升 :闭环精度达±0.1%,优于霍尔传感器的±0.5%。

 体积更小 :芯片级封装(如TMR7608系列)节省70%PCB空间,适配高密度逆变器设计。

 抗干扰更强 :内置多重补偿电路,信噪比提升50%,适用于高频开关噪声环境。

在光伏产业迈向智能化的进程中,电流检测技术的革新是提升系统效率的关键一环。多维科技TMR电流传感器凭借其高精度、高可靠性与灵活适配能力,已成为光伏逆变器设计中的优选方案。未来,多维科技将持续深耕磁传感技术,为全球新能源系统提供更高效的测量解决方案。

来源:多维科技

围观 18
评论 0
路径: /content/2025/100591874.html
链接: 视图
角色: editor
winniewei的头像
winniewei

今年是首款商用现场可编程门阵列( FPGA )诞生 40 周年,其带来了可重编程硬件的概念。通过打造“与软件一样灵活的硬件”,FPGA 可重编程逻辑改变了半导体设计的面貌。这是开发人员第一次能在设计芯片时,如果规格或需求在中途、甚至在制造完成后发生变化,他们可以重新定义芯片功能以执行不同的任务。这种灵活性令新芯片设计的开发速度更快,从而缩短了新产品的上市时间,并提供了 ASIC 的替代方案。

FPGA 对市场的影响是惊人的。FPGA 催生了一个价值超过 100 亿美元的产业。过去四十年来,我们已向不同细分市场的超过 7,000 家客户交付了超过 30 亿颗 FPGA 和自适应 SoC(结合 FPGA 架构与片上系统和其他处理引擎的器件)。事实上,我们已连续 25 年位居可编程逻辑市场份额的领先地位,并且我们相信,凭借我们强大的产品组合和产品路线图,我们有能力继续保持市场领先地位。

加速创新

FPGA 是由已故的 Ross Freeman 发明的,他是赛灵思公司(现为 AMD 的一部分)联合创始人,也是一位工程师与创新者。Freeman 认为,除了标准的固定功能 ASIC 器件之外,一定存在一种更好、更经济高效的芯片设计方法。FPGA 为工程师提供了随时更改芯片设计的自由和灵活性,以在一天内开发和设计出定制芯片的能力。FPGA 还助力开创了“无晶圆厂”商业模式,彻底改变了整个半导体行业。通过消除对定制掩膜加工和相关的非经常性工程成本的需求,FPGA 助力加速硬件创新,证明企业不需要拥有晶圆代工厂来打造突破性的硬件——他们只需愿景、设计技能与 FPGA。

1.jpg

Ross Freeman(右)鸟瞰 XC2064 布局

2.jpg

全球首款商用 FPGA XC2064 具备 85,000 个晶体管、64 个可配置逻辑块和 58 I/O 块。相比之下,今天最先进的 AMD FPGA 器件(例如 Versal Premium VP1902 )集成了 1,380 亿个晶体管、1,850 万个逻辑单元、2,654 I/O 块、至多 6,864 DSP58 引擎,以及用于内存、安全和接口技术的丰富硬 IP

自全球首款商用 FPGA( XC2064 )出货以来的 40 年里,FPGA 已在电子领域无处不在,并深深融入到日常生活中。如今,包括 FPGA、自适应 SoC 和系统模块( SOM )在内的自适应计算器件已遍布于从汽车、火车车厢与交通信号灯到机器人、无人机、航天器与卫星到无线网络、医疗和测试设备、智慧工厂、数据中心甚至高频交易系统等各个领域。

关键创新与产品里程碑

过去 40 年来,AMD 的创新和不断演进的市场需求推动 FPGA 技术取得了许多惊人的突破。

  • 1985 年:XC2064——首款商用 FPGA。

  • 20 世纪 90 年代:XC4000 和 Virtex™ FPGA – 率先为无线基础设施集成嵌入式 RAM 和 DSP。

  • 1999 年:Spartan 系列发布——为大容量应用提供经济高效的传统 ASIC 替代方案。

  • 2001 年:首款集成 SerDes 的 FPGA。

  • 2011 年:Virtex-7 2000T 成为业界首个采用 CoWoS 封装的量产部署——助力开创了先进的 2.5D 集成技术的采用,该技术已成为 HPC 系统的基础,现正推动面向 AI 的 GPU 创新浪潮。

  • 2012 年:Zynq 系列——首款将 Arm CPU 与可编程逻辑相结合的自适应 SoC。

  • 2012 年:Vivado™ 设计套件——使软件开发人员能够进行 FPGA 设计。

  • 2019 年:首款 Versal 自适应 SoC 发布——引入专用 AI 引擎和可编程片上网络( NOC )。

  • 2019 年:Vitis™ 统一软件平台——提供预先优化的 AI 工具和抽象层,以加快推理速度。

  • 2024 年:第二代 Versal AI Edge 系列——集成可编程逻辑、CPU、DSP 和 AI 引擎,首次在单芯片上实现端到端 AI 加速,并为需要异构、低时延和高能效计算的新一代应用提供支持。

  • 2024 年:Spartan UltraScale+ FPGA 系列——补充了我们广泛的成本优化型 FPGA 和自适应 SoC 产品组合,为 I/O 密集型边缘应用提供经济高效的性能。

Vivado 和 Vitis 软件的推出对推动市场扩张具有重要意义。Vivado 软件通过高层次综合、机器学习优化和无缝 IP 核集成等高级功能,支持开发人员简化工作流程、缩短开发周期并实现更高的性能。

Vitis 开发环境带来了预优化的工具和抽象层,以助力加速 AI 推理。最新版本( 2024.2 )包含多项新功能,例如,面向嵌入式 C/C++ 设计的独立工具,以及简化搭载 AI 引擎的 AMD Versal 自适应 SoC 的使用的增强功能。我们持续投入于这些工具领域,令用户工作更加高效,同时能够利用新的和日益演进的数据类型与 AI 模型。

3.png

FPGA 技术的演变

边缘 AI

如今,大部分 AI 工作负载都在数据中心 GPU 上运行。然而,越来越多的 AI 处理发生在边缘。FPGA 技术居于各行各业 AI 融合应用快速增长的前沿。FPGA 和自适应 SoC 能实时提供针对传感器数据的低时延处理,从而加速边缘端 AI 推理。随着近来小型生成式 AI 模型的推出,我们可以看到“ChatGPT 时刻”即将来到边缘端,这些新的 AI 模型可以在边缘设备上运行,无论是在 AI PC 、在您的车辆中、在工厂机器人、在太空还是任何嵌入式应用中。

以下仅列举了 AMD 自适应计算技术目前如何支持边缘 AI 工作负载的几个示例:

  • 美国国家航空航天局( NASA ) – AMD Virtex FPGA 助力 NASA 火星探测器实现 AI 功能,用于图像检测、匹配和校正,并在数据返回地球前过滤掉无用数据。

  • 斯巴鲁 – 已选择 AMD 第二代 Versal AI Edge 系列自适应 SoC,将 AI 功能引入其下一代 ADAS“EyeSight”驾驶辅助安全系统。

  • SICK – AMD Kintex™ UltraScale+™ FPGA 和 FINN 机器学习框架帮助 SICK 提供快速且准确的包裹检查,从而增强工厂自动化。

  • Radmantis – AMD Kria™ 自适应 SOM 器件正助力实时 AI 推理,以促进可持续鱼类养殖。

  • JR 九州 – 日本最大的子弹头列车运营商之一,正采用 AMD Kria SOM      为其基于 AI 的轨道检查系统进行实时图像处理。

  • Clarius – 正使用 AMD      Zynq UltraScale 自适应 SoC 助力其手持式超声设备中的感兴趣区域 AI 识别。

展望未来

我们看到,基于 FPGA 的自适应计算正持续推动边缘 AI 应用的突破,这些应用涵盖自动驾驶、机器人和工业自动化、6G 网络、气候变化、药物研发、科学研究以及太空探索等领域。值此 FPGA 诞生 40 周年之际,我们为发明这项技术感到无比自豪,并回顾其发展历程及其在此后 40 年的巨大影响。致力于开发尖端和市场领先产品的开发人员持续运用 FPGA 技术推动创新芯片设计、支持硬件辅助验证并加快产品上市时间。AMD 致力于在未来数十年引领这项卓越技术的演进。

围观 14
评论 0
路径: /content/2025/100591873.html
链接: 视图
角色: editor
winniewei的头像
winniewei

Arm 和微软正携手共筑未来,从而使创新不受设备功耗或不同部署环境的限制。在近期举行的微软 Build 大会上,Arm 的愿景实现再次得到体现 —— 致力于确保微软的整个软件生态系统都能访问 Arm 计算平台并从中受益。无论是在 Microsoft Azure 的云端还是在 Windows on Arm PC 的边缘侧,开发者可以在任何地方加速其应用和工作负载。

本次大会展示的亮点如下:

  • 在基于 Arm 架构的 Microsoft Azure Cobalt 100 上部署领先的微软及第三方应用工作负载,包括 Microsoft Defender for Endpoint、Teams,以及 Adobe、Databricks 和 Snowflake;

  • 针对 Azure 的新 Arm Cloud Developer Access Program(云开发者访问计划),以加速开发者向 Cobalt 迁移;

  • 近期,通过 Arm KleidiAI 与 ONNX Runtime 集成,在 Azure Cobalt 100 虚拟机上运行 Phi-4 模型时,词元吞吐量提高了 40%,从而加快了响应速度,并提升了开发者体验;

  • Windows on Arm 势头强劲,为主流应用提供了更多 Arm 原生支持,并增强了开发者支持。

Arm 和微软重新定义能效和性能

参加微软 Build 大会的开发者近距离了解了 Azure Cobalt 100 处理器,该处理器针对性能、能效和可扩展性进行了优化。Azure Cobalt 100 处理器基于 Arm Neoverse 计算子系统 (Compute Subsystems, CSS) 打造,旨在为 Azure 中的通用工作负载提供更高的能效和性能。这不仅关乎基础算力,更是在于实现可持续的创新。微软选择基于 Arm 平台构建,对于推进其可持续发展目标至关重要,并将着重在其整个数据中心实现显著节能。

对于开发者来说,这意味着更出色的能效、更低的运营成本,以及更胜以往的有效扩展人工智能 (AI) 和云原生应用的能力。

随着在 Azure Cobalt 100 芯片上运行的微软和第三方应用工作负载不断增长,微软 Build 大会上展示了其良好发展势头。微软正在 Azure Cobalt 100 驱动的实例上部署两项核心服务 —— Defender for Endpoint 和 Teams。同时,Adobe、Databricks 和 Snowflake 等领先的第三方应用也正被部署至 Azure Cobalt 100 上。

面向 Azure Cobalt 100 Arm 云迁移资源

为了支持和加速开发者在云端采用 Arm 架构,Arm 近期推出了全面的云迁移资源,其核心是新的 Cloud Migration Resource Hub(云迁移资源中心),提供超过 100 个详细的 Learning Path,用于指导开发者在多个平台上无缝迁移常见工作负载。

通过利用这些工具和社区支持,开发者可以简化现有应用的迁移过程,或原生构建针对性能和能效优化的现代云服务。从 .NET 和 Java 应用到开源数据库和网络服务,Azure Cobalt 100 虚拟机可为云原生和 AI 工作负载提供可扩展,且具有成本效益的计算资源。

通过 KleidiAI ONNX Runtime 集成,在 Azure Cobalt 100 虚拟机上加速 AI

近期,KleidiAI 成功集成到微软的 ONNX Runtime 中,标志着又一里程碑的达成。通过直接在端侧实现更智能、更快速的 AI 交互,且无需开发者额外工作,这为在 Windows on Arm 设备上运行应用提供了更为卓越的 AI 体验。

在配备 ONNX Runtime 的 Azure Cobalt 100 虚拟机上运行 Phi-4 Mini 模型,以展示所实现的性能提升。启用 KleidiAI 后,开发者可以看到显著的提升:

  • 词元吞吐量(词元/秒)提高了 40%;

  • 首词元延迟 (TTFT) 提升了超过 34%;

  • 即使在较小的八核实例上,KleidiAI 将吞吐量提高了约 37%,将 TTFT 缩短了约 16%。

Windows on Arm 为全栈开发者提供契机

Windows on Arm 的演进是另一个重要里程碑。许多用户广泛使用的应用现均可在 Windows on Arm 上原生运行,例如百度、哔哩哔哩、爱奇艺、搜狗、腾讯 QQ 音乐、有道词典、剪映、火绒安全、酷狗音乐、微信输入法等。开发者能够以这一成熟、高能效的平台作为目标。从在 Windows on Arm 上使用 Zoom 无缝进行视频会议、在 Fantastical 上感受动态日历体验、通过 NordVPN 进行安全浏览,到利用 Pieces for Developers 实现更智能的开发者工作流,这些实际应用鲜活地展示了 Arm 平台上应用的多样性。

得益于 Arm 与 GitHub 的合作,以及 Windows Arm64 托管运行器正式支持 GitHub Actions,开发者现在可以在 Windows on Arm 上使用全面优化的 CI/CD 管线。通过各地开发者均可免费获取的 GitHub Actions 以及 Arm 专为 GitHub Copilot 设计的扩展程序,开发团队可以加快测试、集成和部署速度,且同时处理多个工作流,为其 AI 工作负载增强性能,并提高效率。

合作方能共创未来,Arm 是未来的基石

微软 Build 大会传递的信息非常明确:从端侧 AI 到超大规模的云应用,开发者可以在 Arm 和微软提供的统一、高能效的基础上进行开发。展望未来,Arm 和微软的合作将继续重新定义硬软件创新的可能性,实现从云端到 PC 的变革性体验。


围观 15
评论 0
路径: /content/2025/100591871.html
链接: 视图
角色: editor
winniewei的头像
winniewei
  • 可为数据中心减少最高40%用电量

  • 提供一站式液冷解决方案,加速部署并缩短启动上线时间

  • 现可通过温水冷却,进水温度最高至45°C,可降低最多40%用水量,进而减少对制冷机(Chiller)的需求

  • 使数据中心可在约50dB音量环境中安静运行

Supermicro, Inc. NASDAQSMCI作为AI/ML、高性能计算、云端、存储和5G/边缘领域的全方位IT解决方案提供商,宣布对其直接液冷(DLC)解决方案进行多项改良。这些改良采用全新技术,包括针对各种服务器组件的冷却、对较高温流入冷却液的支持,以及可提升每瓦AI效率的创新设计。与气冷技术相比,Supermicro DLC-2解决方案能为数据中心降低最高40%的用电量。这些先进技术能为顶尖液冷AI基础设施实现更快的部署,以及更短的启动上线时间。此外,总体拥有成本(TCO)也能通过这些技术减少最高20%。针对系统组件的全面式冷板覆盖配置,能降低散热所需的风扇速度和风扇数量,进而将数据中心噪音等级大幅降低至约50dB。

Supermicro总裁兼首席执行官梁见后表示:"市场对液冷数据中心的需求,在总设施占比上,预计将提升至30%。我们意识到,目前的技术已不足以冷却新型AI优化系统。Supermicro持续致力减少数据中心用电量、用水量、噪音和占地空间,专注推动创新与绿色计算,进而带来更好的AI未来。我们最新的液冷创新技术DLC-2能为数据中心降低最多40%的电力成本。"

欲了解更多信息,请浏览:www.supermicro.com/liquid-cooling

Supermicro将其数据中心建构组件解决方案(DCBBS)与DLC-2结合,致力使数据中心成本降低20%,并让液冷技术变得更普及且易于应用。

此全新液冷架构内的其中一项核心组件为GPU优化Supermicro服务器。该服务器可搭载8个NVIDIA Blackwell GPU和2个Intel® Xeon® 6 CPU,并只需4U的机架空间,能支援较高的冷却液温度。此独特、优化的设计针对CPU、GPU、内存、PCIe交换器和电压调节器配备了冷板,可减少系统对高速风扇和后门热交换器的需求,进而降低数据中心的冷却成本。

全新Supermicro DLC-2解决方案支持新型4U前置I/O NVIDIA HGX™ B200 8-GPU系统。该解决方案的机架内建型冷却液分配装置(CDU)具有经强化的散热性能,可因应每机架250kW的热量。Supermicro DLC-2解决方案也通过垂直式冷却液分配歧管 (CDM)输送出携带热量的冷却液,再将冷却后的冷却液输送回机架内的服务器。系统占用的空间减少后,机架便能安装更多服务器,进而提高每空间单位内的计算密度。而垂直式CDM具有多种外型尺寸,能与安装在机架中的服务器数量进行精准对应。整个DLC-2解决方案与Supermicro SuperCloud Composer®软件进行了完全整合,可支持数据中心级的管理和基础设施协作。

Supermicro's Next-Generation Direct Liquid-Cooling Solutions (DLC-2)

Supermicro's Next-Generation Direct Liquid-Cooling Solutions (DLC-2)

高效冷却液循环和将近全面的液冷热捕获范围(最高可达每服务器机架的98%),能使用最高45°C的冷却液作为进水端液体,免除了冷却水、制冷压缩机设备成本和额外用电量,进而降低最多40%的数据中心用水量。

DLC-2技术结合了液冷服务器机架和集群,并提供混合式冷却塔和水塔,而这些冷却塔也是数据中心建构组件的一部分。其中,混合式冷却塔将标准干式冷却塔和水塔的性能整合至一个设计内,可进一步减少数据中心的资源使用量和成本,特别是针对建置在季节温度差异较大的地区内的数据中心。

Supermicro作为全方位的一站式解决方案供货商,具备全球级规模的制造产能,并提供数据中心级解决方案设计、液冷技术、网络、布线、完整的数据中心管理软件套件、L11与L12解决方案验证、现场部署,以及专业服务与支持。Supermicro的制造设施遍布圣何塞、欧洲和亚洲,拥有空前的液冷机架系统制造产能,可确保及时交付、降低总体拥有成本(TCO),以及提供稳固的质量。

关于 Super Micro Computer, Inc.

Supermicro(纳斯达克股票代码:SMCI)是应用优化全方位IT解决方案的全球领导企业。Supermicro的成立据点及运营中心位于美国加州圣何塞,致力为企业、云端、AI和5G电信/边缘IT基础架构提供领先市场的创新技术。我们是全方位IT解决方案制造商,提供服务器、AI、存储、物联网、交换器系统、软件及支持服务。Supermicro的主板、电源和机壳设计专业技术进一步优化我们的开发与生产,为我们的全球客户实现从云端到边缘的新一代创新。我们的产品皆由企业内部团队设计及制造(在美国、亚洲及荷兰),经由产品设计优化降低总体拥有成本(TCO),并通过绿色计算技术减少环境冲击,且在全球化运营下达到极佳的制造规模与效率。屡获殊荣的Server Building Block Solutions®产品组合使客户能从极多元系统产品线内选择合适的机型,进而将工作负载与应用达到最佳性能。多元系统产品线由高度弹性、可重复使用的建构组件打造而成,而这些组件支持各种硬件外形规格、处理器、内存、GPU、存储、网络、电源和散热解决方案(空调、自然气冷或液冷)。

稿源:美通社

围观 53
评论 0
路径: /content/2025/100591870.html
链接: 视图
角色: editor
winniewei的头像
winniewei

全球权威调研机构IDC最新《2024中国企业级固态硬盘市场跟踪报告》显示,忆联以11.4%的市场份额(覆盖PCIe/SATA/SAS接口类型)问鼎中国企业级固态硬盘市场国产厂商冠军。

面对数字经济深化与企业级存储市场持续承压的双重考验,忆联凭借"技术破壁+战略深耕"双轮驱动在逆势下取得显著增长。其自有品牌业务聚焦互联网、运营商、整机厂商及金融等核心领域,年度出货量同比激增117%,以增速超越行业均值60%的绝对优势,刷新国内企业级存储市场年度增速纪录,领跑行业。

数据来源:IDC《中国企业级固态硬盘市场份额,2024》

数据来源:IDC《中国企业级固态硬盘市场份额,2024》

  • 市场领导地位:忆联以持续领先优势蝉联中国企业级固态硬盘市场前三强(2022-2024),连续三年稳居企业级国产固态存储厂商榜首,彰显国产高端存储领军实力。

  • 突破性增长曲线:2024年度忆联自有品牌业务出货量实现117%同比暴增,增长率超越行业均值60%,缔造存储业界增速标杆。

  • 头部客户生态圈:以互联网行业巨头为核心增长引擎,整合全球知名整机厂商、超大规模云服务商及金融科技领导者,构建深度协同的产业生态。

  • 产品统治力显现:忆联在中国区企业级PCIe固态硬盘总容量市占率突破12.3%关键节点,以领先优势领跑国产存储赛道,持续扩大技术代差竞争优势。

中国区ESSD与忆联自有ESSD出货量增长率

中国区ESSD与忆联自有ESSD出货量增长率

持续领跑国产企业级 SSD,全栈式产品创新矩阵驱动产业生态重构

作为国产存储技术的领军企业,忆联凭借自主研发的主控芯片架构与创新智能算法取得技术代际的跨越式发展,成为国内唯一同时覆盖企业级固态硬盘市场主流产品接口协议的国产厂商,其产品矩阵全面支持PCIe、SAS及SATA三大主流接口标准,构建了完整的企业级存储解决方案体系

  • 企业级 SSD:推出全场景适配的PCIe 5.0 ESSD UH812a/UH832a,数据吞吐效率是上一代(PCIe 4.0 SSD UH811a系列)的2倍,以跨代际技术突破实现性能飞跃,为AI模型训练、实时大数据分析、高密度云计算及5G边缘计算等场景构建存储新基准。

  • 数据中心级 SSD:推出第二代数据中心级SSD,通过高吞吐架构设计,可轻松应对海量数据并发处理,显著降低TCO,适配AI、互联网及超大数据中心等复杂业务场景。

  • 高性能 SAS SSD:采用SAS 3.0双端口的企业级SSD UH6系列,通过双端口和冗余通道设计,配备先进的数据恢复与备份机制,确保了数据的高可用性与强大的容错能力,还提供了灵活的扩展性选项,完美匹配金融行业对数据安全性、可靠性及业务连续性的严苛需求。

  • 主流 SATA SSD:推出高性能、高可靠、高性价比的企业级SATA SSD UM311b系列,可为互联网、运营商等行业客户提供稳定可靠的存储服务。

质量与技术的双轮驱动,构建客户信任壁垒

忆联依托自主构建的企业级存储创新中心,已形成覆盖全链路的存储产品验证体系、多场景适配能力与深度调优技术实力。产品可靠性达行业标杆水准,故障率控制指标进入全球存储领域第一梯队,关键性能参数实现与头部厂商的全面对标。

作为产品价值的重要延伸,忆联构建了全维度技术服务保障体系。我们以资深专家领衔的技术支持团队为基石,依托智能诊断系统和行业解决方案库,为客户提供多重价值保障,助力客户构建稳健的业务连续性保障体系,帮助行业客户实现年均故障率下降和运维效率提升。

近年来,忆联以技术深耕与生态协同双轮驱动,实现品牌价值跃升新高度。在战略布局层面,成功跻身英特尔至强®平台固态硬盘合作伙伴,成为行业标杆案例,更以首批核心成员身份深度参与英特尔数据中心与人工智能事业部(DCAI)中国区关键组件验证项目,在服务器系统验证、部件兼容性测试等关键环节发挥重要作用,彰显其在数据中心领域的全栈技术能力。

忆联成为英特尔®至强®平台固态硬盘合作伙伴

忆联成为英特尔®至强®平台固态硬盘合作伙伴

2025年企业级固态硬盘市场迎来技术跃迁关键节点,忆联以持续突破的底层技术研发能力和商用验证的产品体系,进一步巩固行业地位,印证了市场对其专业级存储解决方案的高度认可。面对AI大模型从PB级训练到底层算力实时响应的全周期挑战,忆联基于全自研主控芯片与创新算法,深化系统级架构创新,构建涵盖数据预处理、模型训练和边缘推理的全栈式存储解决方案,实现从超大规模数据中心到边缘计算节点的全场景覆盖能力。

稿源:美通社

围观 33
评论 0
路径: /content/2025/100591869.html
链接: 视图
角色: editor
winniewei的头像
winniewei
  • 此项易于设计、建构、部署及运营的解决方案适用于所有关键型计算和冷却基础设施

  • 快速部署、启动上线,完整配备AI/IT数据中心的必须组件

  • 通过从系统、机架再到数据中心级的模块化建构组件解决方案架构降低成本

  • Supermicro领先业界的设计、制造产能、管理软件、现场服务和全球支持,具备极佳的质量和可取得性

Supermicro, Inc. NASDAQSMCI作为AI、云端、存储和5G/边缘领域的全方位IT解决方案提供商,宣布推出数据中心建构组件解决方案(Data Center Building Block Solution;DCBBS)。液冷AI工厂配备关键基础设施组件(包括服务器、存储、网络、机架、液冷、软件、服务和支持)的程序具高度复杂性,而DCBBS是最轻松的解决方案。DCBBS作为Supermicro系统建构组件解决方案的延伸技术,采用标准化、高灵活性的解决方案架构,大幅提升了服务规模,能因应最高需求的AI数据中心训练与推理工作负载,并可简化数据中心项目规划、建设和运营,同时降低成本。

Supermicro总裁兼首席执行官梁见后表示:"Supermicro DCBBS为客户提供最快速的产品上市时间和启动上线时间,使数据中心基础设施建构变得更容易,且最快三个月内即可完成部署。通过我们全面的解决方案涵盖范围,包括数据中心配置与网络拓扑设计、电源和电池备用单元,DCBBS可简化并加速AI数据中心的建设,进一步降低成本并提高质量。"

欲了解更多信息,请浏览:www.supermicro.com/DCBBS

DCBBS提供经预先验证的数据中心级可扩充单元方案,包含具有256个计算节点的AI工厂DCBBS可扩充单元,能提供成套经优化的平面图、机架图和组件列表等,降低冗长的数据中心设计工作量。Supermicro提供完善的第一方服务,涵盖咨询、现场部署和长期现场支持,进而确保项目完成。DCBBS可进行系统级、机架集群级和数据中心级的定制化,能因应几乎任何项目需求。

DCBBS在结合我们的DLC-2技术后,能帮助客户节省最多40%电力,并减少最高60%数据中心占地面积与40%用水量,进而使总体拥有成本降低20%。

AI 工厂数据中心级可扩充单元

目前市场对AI基础设施的需求正不断扩大:AI训练计算集群需要数千个GPU来开发核心模型。而AI推理应用也通过数个模型运行多重推理程序,需要更多测试时计算性能(Test-Time Compute)以提供更优越的智能功能。Supermicro的AI工厂DCBBS方案可全方位提升数据中心性能,以因应这些日益增高的AI计算需求。

Supermicro的解决方案包括最高256个液冷4U Supermicro NVIDIA HGX系统节点,而每个系统搭载8个NVIDIA Blackwell GPU(共2,048个GPU),通过最高800Gb/s的NVIDIA Quantum-X800 InfiniBand或NVIDIA Spectrum X以太网络平台进行互连。该解决方案的计算结构是基于高灵活性的可扩充式分层存储,具有高性能PCIe Gen5 NVMe、总体拥有成本优化数据湖节点,以及稳固耐久的管理系统节点,可实现不间断的持续性运行。

系统级、机架级和数据中心级定制化

Supermicro的模块化建构组件技术包含系统级、机架级和数据中心级这三个层级,可为客户提供极佳的设计方案,并明确系统级组件列表,包括CPU、GPU、DIMM、驱动器和NIC等组件。其中,系统级定制化可因应特定数据中心工作负载和应用的专门性硬件需求,同时也能实现针对数据中心资源的精密微调。

Supermicro可协助设计机架机壳图(Elevation layout),确保散热和布线的优化,并能供客户选择包括42U、48U和52U等配置的机壳规格。

与客户进行初步咨询后,Supermicro便会依据数据中心电力配额、性能目标,或其他需求,提供量身打造的方案。

DCBBS

DCBBS

Supermicro DLC-2

液冷数据中心的市场占比在一年内从不到1%成长到预期的30%。Supermicro可协助客户打造散热效率更高的新型液冷数据中心,进而推动业内的DLC技术普及。

DLC具有空前的冷却效率,能直接对各芯片(包括以1000W TDP或更高功率运行的AI GPU)进行散热。液冷基础设施是以数据中心规模进行规划和部署,包括散热管线和设施端液冷水塔。Supermicro领先业界,提供直达芯片液冷基础设施一站式解决方案,包含DLC系统、机架内或一对多冷却液分配装置、冷却液分配歧管和冷却水塔等。Supermicro DLC-2技术的进一步改良包括:

液冷板

CPU、GPU、PCIe交换器、DIMM、VRM、PSU等

最高进水温度

最高45°C

噪音等级

最低50dB

LC热捕获

最高98%

数据中心省电量(与气冷技术相比)

最高40%

服务和软件建构组件

DCBBS提供包含支持快速上市时间和启动上线时间的服务,使客户无需消耗自身IT资源。Supermicro也具有完善服务型建构组件产品组合,涵盖数据中心设计、解决方案验证和专业现场部署,以及持续性的现场支持,确保长期运作,并针对关键任务运行时间提供4小时现场响应方案。

Supermicro的SuperCloud Composer®提供一整套基础设施管理功能,具有优越的分析性能,能以云端规模管理计算、存储和网络建构组件。

除了服务,Supermicro在数据中心应用整合方面亦具备广泛的专业知识,涵盖AI训练、AI推理、集群管理和工作负载协作等领域,其中也包括帮助客户部署NVIDIA AI Enterprise软件平台。此外,Supermicro亦可根据客户的软件堆栈,提供全面的软件布建和验证服务。

关于 Super Micro Computer, Inc.

Supermicro(纳斯达克股票代码:SMCI)是应用优化全方位IT解决方案的全球领导企业。Supermicro的成立据点及运营中心位于美国加州圣何塞,致力为企业、云端、AI和5G电信/边缘IT基础架构提供领先市场的创新技术。我们是全方位IT解决方案制造商,提供服务器、AI、存储、物联网、交换器系统、软件及支持服务。Supermicro的主板、电源和机壳设计专业技术进一步优化我们的开发与生产,为我们的全球客户实现从云端到边缘的新一代创新。我们的产品皆由企业内部团队设计及制造(在美国、亚洲及荷兰),经由产品设计优化降低总体拥有成本(TCO),并通过绿色计算技术减少环境冲击,且在全球化运营下达到极佳的制造规模与效率。屡获殊荣的Server Building Block Solutions®产品组合使客户能从极多元系统产品线内选择合适的机型,进而将工作负载与应用达到最佳性能。多元系统产品线由高度弹性、可重复使用的建构组件打造而成,而这些组件支持各种硬件外形规格、处理器、内存、GPU、存储、网络、电源和散热解决方案(空调、自然气冷或液冷)。

稿源:美通社

围观 19
评论 0
路径: /content/2025/100591868.html
链接: 视图
角色: editor
winniewei的头像
winniewei

近日,深圳市华普智云科技有限公司(以下简称“华普智云”)宣布成功研发并推出一款新型多功能物联网监控设备(专利号:CN 222911313 U),该设备凭借创新的结构设计与卓越的性能,为工业物联网领域提供了更高效、便捷的监控解决方案,标志着公司在智能硬件研发领域迈出重要一步。

1.png

创新设计,破解传统监控设备安装难题

针对传统物联网监控设备安装繁琐、拆装效率低等痛点,华普智云这款新型设备采用独特的连接套管与安装座插接结构,通过压缩弹簧驱动的锁定机构,实现了监控设备主体与安装座的快速锁定与拆卸。只需通过拨动爪转动调节盘,即可通过驱动槽与驱动销的配合,轻松控制锁定插杆的伸缩,无需频繁操作螺钉,大幅降低了安装维护的复杂度,显著提升了工作效率。

2.png

同时,设备设置的导向滑块与导向槽配合结构,在安装时可精准定位锁定机构与锁定孔,进一步简化了安装流程,即使在复杂环境下也能快速完成设备部署。

稳定可靠,适应多元工业场景

在性能方面,该设备具备出色的环境适应性。其锁定机构通过压缩弹簧持续提供稳定弹力,确保锁定插杆与锁定孔紧密配合,保障设备安装后的牢固性,可承受工业场景中的振动、冲击等挑战。

设备的锁定插杆与连接套管配合部分采用圆形截面,与定位支架配合部分则为六边形截面,这种设计有效防止了插杆转动,确保驱动销与驱动槽稳定协作,提升了设备在长期使用中的可靠性。此外,设备支持多种安装环境,无论是工厂车间、仓储物流还是能源设施等场景,均可稳定运行,为工业生产、安防监控等提供了坚实保障。

技术领先,赋能工业智能化升级

作为华普智云在物联网领域的又一创新成果,该多功能监控设备不仅解决了传统设备的实际痛点,更体现了公司在智能硬件研发上的技术积累。通过将机械结构创新与物联网技术深度融合,该设备可无缝接入工业物联网系统,实现数据的实时采集与传输,为智能工厂、智慧园区等场景提供了更智能、更高效的监控手段。

未来,华普智云将继续秉持创新驱动发展理念,持续深耕工业物联网领域,以领先技术和优质产品推动行业智能化升级,为客户创造更大价值。

来源:深圳市华普智云科技有限公司

围观 7
评论 0
路径: /content/2025/100591866.html
链接: 视图
角色: editor
winniewei的头像
winniewei

作者:电子创新网张国斌

昨天有读者后台问了一个问题:为什么手机基带设计那么难?苹果挖了很多人搞了那多年都没彻底解决?这里从设计挑战、内部架构以及整体支出角度给大家科普一下。

手机蜂窝基带(Cellular Baseband)是手机通信系统的“大脑之一”,负责实现从物理层到中高层协议的数据处理、控制与调度,其功能相当于把射频收发回来的模拟信号变成手机能用的数据,或者反过来将上层的数据封装、编码成可发射的无线信号。


一、基带的基本功能

蜂窝基带主要处理以下功能模块:

功能模块

说明

物理层(Layer 1)处理

包括调制解调、信道编解码、信道估计、MIMO处理等,是整个通信数据路径的底层核心

媒体访问控制(MAC)层

负责资源调度、数据分段重组、重传机制(HARQ)等

RLC/PDCP/RRC等协议处理

管理数据加密、完整性保护、分段重组、连接控制等功能

功控/速率控制/时序控制

实现功率调节、调度命令处理、时间对齐(尤其TDD模式)

多模制式切换与互操作性

支持2G/3G/4G/5G,甚至WLAN等多协议共存、切换

接口管理

包括与射频(RF)模块的数据通信,与应用处理器(AP)的高速数据通道(PCIe、SDIO、USB等)

二、基带芯片的主要组成结构

基带芯片一般是高度集成的SoC架构,主要包括以下几个子模块:

1. 数字信号处理器(DSP)/专用加速器

  • 负责物理层高强度计算:

    • 调制解调(QAM、SC-FDMA、OFDM)

    • LDPC/Polar 编解码

    • 信道估计与均衡

    • FFT/IFFT 等算法处理

  • 高端设计中使用多个DSP+NPU+硬件加速模块协同。


2. 协议处理单元(Protocol Stack Processor)

  • 通常为通用MCU或异构CPU(Arm Cortex-R/A系列);

  • 执行RLC、PDCP、RRC等中高层通信协议;

  • 处理安全、加密、信令连接管理、无线资源控制等任务;

  • 某些任务可由协处理器或专用加密单元加速(如IPSec、SNOW3G/AES)。


3. 调度与资源管理模块

  • MAC调度器,控制上行下行资源的动态分配;

  • 管理传输队列、重传缓存、HARQ反馈。


4. 时钟与同步模块

  • 精确控制通信时序,支持帧/子帧级同步;

  • 支持TDD/FDD时隙切换控制。


5. 基带与射频接口

  • 通过 MIPI DigRF 或自定义高速并口与 RF 芯片通信;

  • 处理IQ数据、控制字、时钟同步信号;

  • 支持射频频段切换、PA/LNA控制、校准反馈。


6. 与应用处理器接口

  • USB/PCIe/SDIO 通道传输上层数据;

  • IPC(进程间通信)传输控制信息;

  • 可集成共享内存区域供数据高速搬移(DMA)。


7. 功耗管理与睡眠控制单元

  • 支持多级低功耗模式(例如eDRX、PSM);

  • 联动射频、应用处理器、调度器进行整机功耗管理;

  • 管理wake-up、resume、sleep等状态。


三、蜂窝基带芯片的逻辑结构图(文字简图)

    [ 上层协议栈处理器 ]

    |  RRC / PDCP / RLC  |

-----------------------

    |     MAC 调度器      |

-----------------------

    | 物理层处理器(DSP) |

    | - OFDM/SC-FDMA     |

    | - LDPC/Polar Code  |

    | - MIMO/信道估计     |

-----------------------

    |  时钟/同步管理模块  |

-----------------------

    |      射频接口       | <----> 射频收发芯片

-----------------------

    |    应用接口(PCIe) | <----> AP/Modem Host


四、手机基带发展趋势

趋势

说明

Modem+AP深度集成(SoC化)

如高通Snapdragon,将基带和应用处理器集成,提升能效与面积效率

向异构计算迁移

引入AI加速、VLIW/NPU/FPGA等架构,加速信号处理与协议堆栈

支持多模多频高集成

包括5G NR、LTE、3G、2G、Wi-Fi、BT 的统一调度和互操作

软件定义无线电(SDR)能力增强

提高灵活性,降低未来制式演进成本

节能与动态功控更智能

节能是永恒课题,特别在IoT/智能穿戴/6G等低功耗场景下

五、手机基带设计难在哪里?

手机蜂窝基带(Cellular Baseband)设计堪称是现代SoC系统中最复杂、最高壁垒的部分之一,其挑战来自于技术难度极高、标准复杂、集成度高、验证周期长、专利门槛重重

以下是几个主要方面的设计挑战和难点:

5.1、协议复杂且不断演进

我们所处的通信是多代并存 ,目前是2G/3G/4G/5G乃至未来6G,这每一代通信协议涉及的信道结构、调制编码方式、链路控制机制都不同。基带需要同时兼容多种制式、支持多频段和载波聚合(Carrier Aggregation)这就增加了架构的复杂性。

以3GPP标准为例,每一版Release有数千页技术规范。标准更新频繁,设计需灵活适配,标准跟随能力是技术壁垒之一,要紧跟标准必须有大量技术人员参与其中。

5.2、实时高并发信号处理挑战

由于基带芯片负责整个通信链路的物理层(PHY)和部分MAC层处理, 因此超高性能要求,尤其在5G NR中,涉及大规模MIMO、多用户并发、低时延要求、上下行高吞吐量场景下,计算量和带宽压力非常大,常用 SIMD/VLIW/DSP/NPU 协同设计。

此外,实时性和确定性也让设计挑战非常大,例如 HARQ(Hybrid ARQ)反馈机制要求在几百微秒内完成计算、解码和响应,而任何延迟都可能引发数据重传,影响网络性能。

5.3、软硬件协同复杂

基带的硬件架构非常复杂、包括调制解调(Modem)、信道编解码(Turbo/LDPC/Polar Code)、信号估计、均衡、同步等模块。它高度依赖异构计算单元(DSP/NPU/ASIC块)协同。而同时,其软件栈也异常繁重:协议栈实现难度大,从L1(物理层)到L3(网络层)要与操作系统和应用协同。功能众多,协议兼容性、稳定性、可调试性要求高。

5.4、多频段支持和射频协同

蜂窝通信要支持全球网络,基带就要获得和处理不同国家通信频带的信号,虽然基带本身不处理模拟射频,但频段、调制方式和射频前端必须高度匹配,支持全球运营商网络需适配数十种频段(尤其5G Sub-6 + mmWave)。射频前端和基带之间需要高效的数字接口(如MIPI DigRF)。基带设计必须考虑频谱利用效率、功耗动态调整等与射频的协同优化问题。这里我在网上找了一些资料把目前2G3G4G5G的频谱频带划分展示一下:

目前3GPP已指定的5G NR频段具体如下:FR1 (450 MHz–6000MHz):

1.png

FR2:

2.png

4G LTE频带

3.png

4.png

3G WCDMA

5.png

3G TD-SCDMA

TD-SCDMA

频段号频率范围(MHz)

331900 - 1920

342010 - 2025

351850 - 1910

361930 - 1990

371910 - 1930

382570 - 2620

391880 - 1920

402300 - 2400

2G GSM

6.png

备注:

P-GSM,基准GSM-900频带

E-GSM,扩展GSM-900频带(包括基准GSM-900频带)

R-GSM,铁路GSM-900频带(包括基准和扩展GSM-900频带)

T-GSM,集群无线系统-GSM

ER-GSM900,即为Extended Railway GSM 900, 在原铁路通信系统的基础拓宽了其频率范围(TX:873-915,RX:918-960)。

CDMA

7.png

要适配如此多的频段,设计挑战可想而知!

5.5、极致功耗控制

手机设备对功耗极其敏感,基带芯片需支持多级动态功耗管理(DVFS、时钟门控、睡眠唤醒机制),5G下行速度提升意味着芯片内部数据搬移量极大,需优化DMA、总线和缓存系统以控制功耗。

5.6、验证与测试极其复杂

覆盖所有协议场景、频段、网络拓扑的测试极其耗时,常用百万条用例。还需进行现场网络验证(field test),涉及不同国家、运营商和设备厂商。许多bug仅在极端网络环境下复现,验证周期可长达1-2年,这个挑战也是非常巨大的,不但需要人力物力还需要去当地测试,不过 一些测试可以委托给运营商。

5.7、知识产权和专利壁垒

在移动通信领域,华为、高通、爱立信、诺基亚、三星等持有大量相关基础专利,要设计基带无法绕开很多专利,避开专利雷区并确保协议兼容,是新进入者面临的巨大法律和技术挑战

总结下来基带设计挑战主要体现在

因素

描述

技术复杂度

多协议、多频段、异构计算、实时处理

标准壁垒

需精通3GPP协议,标准演进快

系统集成度

与射频、天线、AP协同,SoC封装难度高

功耗要求

多模式动态控制、热设计挑战大

验证难度

长周期、多场景测试,不容出错

专利门槛

极高的IP壁垒和授权成本

举个例子,看看5G基带中的 LDPC 解码加速设计

LDPC 是 5G eMBB 场景的主力信道编码,5G 新空口(NR)在物理层上使用了两种信道编码方案:

  • LDPC(Low-Density Parity-Check):用于下行与上行共享信道(PDSCH/PUSCH)的大部分数据传输。

  • Polar Code:用于控制信道(如PDCCH)。

LDPC 相比 Turbo 编码(4G主力)在并行性、误码率性能、低时延方面更适合大数据量高速传输。


✦ LDPC 解码的挑战:

  1. 迭代运算密集

  • LDPC 是一种基于图的迭代解码算法,最常用的是 Belief Propagation 或其近似(Min-Sum)。

  • 每轮迭代涉及大量乘加、最大/最小值运算,计算密集度高。

  • 吞吐量要求高

    • 下行用户速率可达 Gbps,LDPC 解码必须在数百微秒内完成。

  • 硬件并行性设计复杂

    • LDPC 的码本结构稀疏,但具有行列关联性,需专门设计交织器(interleaver)、调度机制避免数据冲突。


    ✦ 加速设计手段:

    技术点

    描述

    并行解码架构(Parallel Decoder Array)

    通过构建多个并行处理单元(PE),分摊行列节点处理任务

    Min-Sum Approximation

    用于近似简化Belief Propagation中的复杂函数计算

    内存访问优化

    通过专用交织存储器设计(RAM Bank)减少冲突和等待

    动态迭代控制

    支持早停机制(early termination),节省功耗与延迟

    可配置LDPC内核

    提供灵活可配置结构支持不同码率、码长

    有些高端芯片会为 LDPC 解码单独设计 ASIC IP(如高通X70),而国产玩家往往以 DSP+ASIC 混合架构起步。


    射频(RF)与基带协同的接口设计

    前面说过,在手机SoC中,基带负责数字信号处理,射频芯片负责模拟射频发射/接收。二者需要通过高速数字接口协同工作,关键接口包括:

    • IQ数据接口

    • 控制与状态接口

    • 同步时钟接口


    ✦ 射频-基带接口关键标准

    接口标准

    描述

    MIPI DigRF v4/v5

    支持最高10Gbps,主要用于基带与射频芯片之间的数据传输

    JEDEC JESD207

    用于收发数据与控制信息

    SLVS/CMOS接口

    低速控制路径,例如射频频段切换、校准

    TSF(Timing Synchronization Function)

    保证时钟同步,满足TDD上/下行切换、MIMO同步精度

     协同设计的难点

    1. 数据速率极高

    • IQ样本速率高,尤其在载波聚合和多天线(MIMO)环境中。

    • 要求接口具备高带宽、低延迟、低抖动(jitter)特性。

  • 射频功耗动态调节与基带联动

    • 例如在信号弱时动态提升PA(功率放大器)增益,在空闲时关闭LNA。

    • 这些调节动作需由基带实时控制,确保网络稳定。

  • 多通道MIMO同步要求严苛

    • 上下行信号必须精确同步,涉及多个通道的相位对齐、时钟校准。

  • 校准机制与闭环反馈

    • 包括射频校准(IQ平衡、DC offset)与发射功率控制(TPC)。

    • 基带需实时反馈并更新RF参数,形成闭环控制。


    ✦ 典型实现方式(简化图示)

    | 基带芯片 |

    |----------|

    | 数字基带处理器(DSP)     |

    | LDPC解码模块             |

    | 调制/解调模块             |

    | 数模转换(DAC)           |

    | MIPI DigRF 接口 ---------> 射频芯片

    |   射频前端(LNA/PA/Filter)

    |   频率合成器

    |   模数转换(ADC)

    |   射频开关控制器


    总结对比

    模块

    设计重点

    挑战

    LDPC 解码

    高吞吐、并行计算、低功耗

    解码算法复杂、功耗/延迟限制、架构优化困难

    射频协同接口

    高频率IQ数据传输、同步控制、射频调节

    接口带宽、射频行为控制、跨域同步

    设计一款兼容多模(2G/3G/4G/5G)蜂窝基带芯片,是当前半导体行业中最复杂、最烧钱、门槛最高的项目之一。这类芯片不仅仅是设计电路,更需要对通信标准、算法、系统验证、射频协同、软件协议栈、认证测试、IP授权、量产流程等全流程进行重度投入。

    以下对人力、资金、周期等核心投入的系统性评估(这是某AI大模型给出的总结,仅供参考):


    一、资金投入估算(基于中高端5G多模基带)

    阶段

    内容

    预估成本(人民币)

    ❶ 前期IP授权/标准许可

    购买LDPC/Polar Code IP、3GPP协议库、高速接口IP(如PCIe、USB、DDR)、Arm/DSP授权、标准专利池费用(如MPEG LA、Sisvel、ETSI)

    1~2亿元

    ❷ 芯片设计与验证

    架构设计、RTL开发、FPGA原型验证、前后端设计、低功耗优化、DFT/DFD等

    3~5亿元

    ❸ 芯片流片

    多次工程流片(28nm/16nm/7nm),每次费用3000万1亿不等,考虑35次迭代

    1~3亿元

    ❹ 软件栈开发

    包括物理层算法固化、中高层协议栈(RRC、MAC、RLC、PDCP)、调度器、功耗控制、通信协议适配(Android/Linux)

    1~2亿元

    ❺ 验证测试与认证

    实验室测试、射频一致性测试、全球各国/各运营商认证(GCF/PTCRB/CE/FCC/运营商定制测试)

    5000万~1亿元

    ❻ 工具/测试平台购买

    原型验证FPGA平台、协议分析仪、通信测试仪(如Keysight、R&S 5G仪表),搭建真实网络环境

    数千万元

    总计

    12亿

    注:以上是有经验团队且已有基础IP积累情况下的合理估算。初创团队从零起步,则投入可能更高,时间更长。


    二、人力投入需求

    角色类型

    细分岗位

    人员规模(估算)

    系统/算法

    通信系统架构、MIMO/调制算法、LDPC/Polar设计、同步时钟设计

    50~80人

    前端设计

    RTL设计、功耗优化、接口逻辑(AXI/AHB等)、内存控制器、SoC总线

    50~70人

    后端设计

    综合、布局布线、时序收敛、DFT/DFD、EM/IR分析

    30~50人

    软件团队

    物理层固件、MAC层调度、RRC协议、驱动栈(Linux/Android)、功控管理

    100~150人

    验证/测试

    仿真验证、FPGA验证、协议一致性测试、运营商场测、工信部测试

    50~100人

    系统集成与PM

    产品管理、跨部门协作、平台验证、IP集成、运营商对接

    20~40人

    其他

    射频协同、UI交互、客户支持、市场/售前等

    20~30人

    合计:300~500人左右的跨学科高水平团队,至少需持续投入2~3年。


    三、周期预估

    阶段

    时间

    架构设计与前期调研

    3~6个月

    设计开发阶段

    12~18个月

    初次流片与调试

    6~9个月

    验证与认证、量产准备

    6~12个月

    合计

    2.5~3.5年

    四、面临的关键风险

    1. 专利封锁:高通、爱立信、诺基亚等拥有大量SEPs(标准必要专利),需谨慎规避或支付许可费用;

    2. 协议兼容问题:3GPP兼容性测试要求极高,容易在小众场景或边缘情况出错;

    3. 量产难度大:工艺迁移、良率控制、封装测试、功耗控制等对团队经验依赖极高;

    4. 市场与资金回报周期长:在没有成熟运营商订单的情况下,ROI周期可能超5年;

    5. 竞争环境残酷:目前市面上成熟的基带供应商仅剩高通、联发科、三星、华为、紫光展锐等少数几家,已形成高壁垒垄断。


    总结

    设计一款兼容2G~5G多模蜂窝基带芯片

    维度

    典型规模

    人力投入

    300~500人(覆盖硬件、算法、软件、系统)

    资金需求

    8~15亿元人民币

    研发周期

    约2.5~3.5年

    风险等级

    极高(标准壁垒+专利+复杂度+验证难)

    总之,设计手机基带芯片挑战极大,风险极大,而且需要长时间的积累!该领域慎入慎入慎入!

    注:本文为原创文章,未经作者授权严禁转载或部分摘录切割使用,否则我们将保留侵权追诉的权利

    围观 90
    评论 0
    路径: /content/2025/100591863.html
    链接: 视图
    角色: editor