All Node List by Editor

winniewei的头像
winniewei

1 (1).png

在光伏发电系统中,逆变器是实现直流-交流转换的核心设备,其性能直接决定电能转换效率和系统可靠性。作为电流检测的关键元件,传感器的精度、响应速度和温度稳定性对逆变器的控制精度与安全运行至关重要。多维科技(Dowaytech)基于专研多年的隧道磁电阻(TMR)技术,推出一系列高性能TMR电流传感器产品,为光伏逆变器提供精准、可靠的电流监测解决方案,助力新能源系统迈向更高能效。

2.jpg

光伏组串电流检测

光伏发电系统中,通常将多路工况相同的光伏组串并联接入到汇流箱或逆变器中,组串电流传感器是光伏面板的第一道监控单元,为满足设备有限的空间、穿线效率和安全性,TMR7307-C系列采用板载穿孔式设计,适用于MC4类型光伏接线端子的直插安装,减少了锁螺丝的节点,可选量程20A~50A,1μs快速响应延时。

3.png

TMR7307-C电流传感器

光伏组串直流拉弧电流检测

光伏组串具有直流高压,户外,线缆长,连接节点多的特点,当出现连接节点接触不良,线缆老化破损,绝缘失效时,在直流高压的作用下,就很可能产生直流拉弧且不具备自熄性,产生明火造成火灾等风险,TMR7307-CB系列提供双路独立输出,一路内置了高信噪比的拉弧电流调理测量单元,具有交流1V/A高灵敏度可选择带宽10k~120kHz2.5k~800kHz,另一路提供了常规电流测量, 可选择量程20A~50A,带宽DC~500kHz,提供了拉弧自检电流输入引脚用于系统拉弧检测功能自检,TMR7307-CB系列专用于光伏组串的安全电流检测。

4.png

TMR7307-CB电流传感器

MPPT控制与直流侧电流监测

光伏组件的输出功率受光照、温度等因素影响动态变化,MPPT控制需要根据电流和电压信息对DC/DC变换器的PWM驱动信号占空比进行调节,实时追踪最大功率点。多维科技TMR7303系列采用开环原理设计,板载式安装,额定量程10~120A,测量精度±1%,0.5μs快速响应时间,可精准测量DC/DC升压电路中MPPT控制所需的电流信号,助力光伏逆变器高效能量转换。

5.png

TMR7303电流传感器

漏电流检测与系统安全防护

非隔离型逆变器中,光伏板与地之间的寄生电容易引发漏电流风险。TMR7406系列专为漏电流检测设计,量程覆盖0.3A~5A,精度±2%,-3dB带宽500kHz,响应时间3μs以内,实时监测mA级微弱电流,可以为系统及时提供准确的异常状态预警信号,有效减少火灾事故发生频次。

6.png

TMR7406电流传感器

交流侧输出电流与过载保护

逆变器并网时需确保输出电流波形纯净且无过载。板载电流传感器TMR7304系列、TMR7559系列±0.8%误差,覆盖6A~75A小电流和100A~250A大电流持续精确检测,结合1μs级响应时间,可快速触发短路保护(<3μs),避免IGBT模块损坏。

7.png

TMR7304电流传感器

8.png

TMR7559电流传感器

储能系统充放电管理

在光储一体化场景中,TMR7553系列(闭环设计,常温下±0.1%误差)适配100A~300A电池电流监测,低温漂特性(±40ppm/K)确保-40°C+85°C环境下的长期稳定性,助力储能系统高效充放电控制。

9.png

TMR7553电流传感器

多维科技产品优势

相较于传统霍尔传感器,多维科技TMR电流传感器在光伏逆变器应用中表现突出:

 精度提升 :闭环精度达±0.1%,优于霍尔传感器的±0.5%。

 体积更小 :芯片级封装(如TMR7608系列)节省70%PCB空间,适配高密度逆变器设计。

 抗干扰更强 :内置多重补偿电路,信噪比提升50%,适用于高频开关噪声环境。

在光伏产业迈向智能化的进程中,电流检测技术的革新是提升系统效率的关键一环。多维科技TMR电流传感器凭借其高精度、高可靠性与灵活适配能力,已成为光伏逆变器设计中的优选方案。未来,多维科技将持续深耕磁传感技术,为全球新能源系统提供更高效的测量解决方案。

来源:多维科技

围观 18
评论 0
路径: /content/2025/100591874.html
链接: 视图
角色: editor
winniewei的头像
winniewei

今年是首款商用现场可编程门阵列( FPGA )诞生 40 周年,其带来了可重编程硬件的概念。通过打造“与软件一样灵活的硬件”,FPGA 可重编程逻辑改变了半导体设计的面貌。这是开发人员第一次能在设计芯片时,如果规格或需求在中途、甚至在制造完成后发生变化,他们可以重新定义芯片功能以执行不同的任务。这种灵活性令新芯片设计的开发速度更快,从而缩短了新产品的上市时间,并提供了 ASIC 的替代方案。

FPGA 对市场的影响是惊人的。FPGA 催生了一个价值超过 100 亿美元的产业。过去四十年来,我们已向不同细分市场的超过 7,000 家客户交付了超过 30 亿颗 FPGA 和自适应 SoC(结合 FPGA 架构与片上系统和其他处理引擎的器件)。事实上,我们已连续 25 年位居可编程逻辑市场份额的领先地位,并且我们相信,凭借我们强大的产品组合和产品路线图,我们有能力继续保持市场领先地位。

加速创新

FPGA 是由已故的 Ross Freeman 发明的,他是赛灵思公司(现为 AMD 的一部分)联合创始人,也是一位工程师与创新者。Freeman 认为,除了标准的固定功能 ASIC 器件之外,一定存在一种更好、更经济高效的芯片设计方法。FPGA 为工程师提供了随时更改芯片设计的自由和灵活性,以在一天内开发和设计出定制芯片的能力。FPGA 还助力开创了“无晶圆厂”商业模式,彻底改变了整个半导体行业。通过消除对定制掩膜加工和相关的非经常性工程成本的需求,FPGA 助力加速硬件创新,证明企业不需要拥有晶圆代工厂来打造突破性的硬件——他们只需愿景、设计技能与 FPGA。

1.jpg

Ross Freeman(右)鸟瞰 XC2064 布局

2.jpg

全球首款商用 FPGA XC2064 具备 85,000 个晶体管、64 个可配置逻辑块和 58 I/O 块。相比之下,今天最先进的 AMD FPGA 器件(例如 Versal Premium VP1902 )集成了 1,380 亿个晶体管、1,850 万个逻辑单元、2,654 I/O 块、至多 6,864 DSP58 引擎,以及用于内存、安全和接口技术的丰富硬 IP

自全球首款商用 FPGA( XC2064 )出货以来的 40 年里,FPGA 已在电子领域无处不在,并深深融入到日常生活中。如今,包括 FPGA、自适应 SoC 和系统模块( SOM )在内的自适应计算器件已遍布于从汽车、火车车厢与交通信号灯到机器人、无人机、航天器与卫星到无线网络、医疗和测试设备、智慧工厂、数据中心甚至高频交易系统等各个领域。

关键创新与产品里程碑

过去 40 年来,AMD 的创新和不断演进的市场需求推动 FPGA 技术取得了许多惊人的突破。

  • 1985 年:XC2064——首款商用 FPGA。

  • 20 世纪 90 年代:XC4000 和 Virtex™ FPGA – 率先为无线基础设施集成嵌入式 RAM 和 DSP。

  • 1999 年:Spartan 系列发布——为大容量应用提供经济高效的传统 ASIC 替代方案。

  • 2001 年:首款集成 SerDes 的 FPGA。

  • 2011 年:Virtex-7 2000T 成为业界首个采用 CoWoS 封装的量产部署——助力开创了先进的 2.5D 集成技术的采用,该技术已成为 HPC 系统的基础,现正推动面向 AI 的 GPU 创新浪潮。

  • 2012 年:Zynq 系列——首款将 Arm CPU 与可编程逻辑相结合的自适应 SoC。

  • 2012 年:Vivado™ 设计套件——使软件开发人员能够进行 FPGA 设计。

  • 2019 年:首款 Versal 自适应 SoC 发布——引入专用 AI 引擎和可编程片上网络( NOC )。

  • 2019 年:Vitis™ 统一软件平台——提供预先优化的 AI 工具和抽象层,以加快推理速度。

  • 2024 年:第二代 Versal AI Edge 系列——集成可编程逻辑、CPU、DSP 和 AI 引擎,首次在单芯片上实现端到端 AI 加速,并为需要异构、低时延和高能效计算的新一代应用提供支持。

  • 2024 年:Spartan UltraScale+ FPGA 系列——补充了我们广泛的成本优化型 FPGA 和自适应 SoC 产品组合,为 I/O 密集型边缘应用提供经济高效的性能。

Vivado 和 Vitis 软件的推出对推动市场扩张具有重要意义。Vivado 软件通过高层次综合、机器学习优化和无缝 IP 核集成等高级功能,支持开发人员简化工作流程、缩短开发周期并实现更高的性能。

Vitis 开发环境带来了预优化的工具和抽象层,以助力加速 AI 推理。最新版本( 2024.2 )包含多项新功能,例如,面向嵌入式 C/C++ 设计的独立工具,以及简化搭载 AI 引擎的 AMD Versal 自适应 SoC 的使用的增强功能。我们持续投入于这些工具领域,令用户工作更加高效,同时能够利用新的和日益演进的数据类型与 AI 模型。

3.png

FPGA 技术的演变

边缘 AI

如今,大部分 AI 工作负载都在数据中心 GPU 上运行。然而,越来越多的 AI 处理发生在边缘。FPGA 技术居于各行各业 AI 融合应用快速增长的前沿。FPGA 和自适应 SoC 能实时提供针对传感器数据的低时延处理,从而加速边缘端 AI 推理。随着近来小型生成式 AI 模型的推出,我们可以看到“ChatGPT 时刻”即将来到边缘端,这些新的 AI 模型可以在边缘设备上运行,无论是在 AI PC 、在您的车辆中、在工厂机器人、在太空还是任何嵌入式应用中。

以下仅列举了 AMD 自适应计算技术目前如何支持边缘 AI 工作负载的几个示例:

  • 美国国家航空航天局( NASA ) – AMD Virtex FPGA 助力 NASA 火星探测器实现 AI 功能,用于图像检测、匹配和校正,并在数据返回地球前过滤掉无用数据。

  • 斯巴鲁 – 已选择 AMD 第二代 Versal AI Edge 系列自适应 SoC,将 AI 功能引入其下一代 ADAS“EyeSight”驾驶辅助安全系统。

  • SICK – AMD Kintex™ UltraScale+™ FPGA 和 FINN 机器学习框架帮助 SICK 提供快速且准确的包裹检查,从而增强工厂自动化。

  • Radmantis – AMD Kria™ 自适应 SOM 器件正助力实时 AI 推理,以促进可持续鱼类养殖。

  • JR 九州 – 日本最大的子弹头列车运营商之一,正采用 AMD Kria SOM      为其基于 AI 的轨道检查系统进行实时图像处理。

  • Clarius – 正使用 AMD      Zynq UltraScale 自适应 SoC 助力其手持式超声设备中的感兴趣区域 AI 识别。

展望未来

我们看到,基于 FPGA 的自适应计算正持续推动边缘 AI 应用的突破,这些应用涵盖自动驾驶、机器人和工业自动化、6G 网络、气候变化、药物研发、科学研究以及太空探索等领域。值此 FPGA 诞生 40 周年之际,我们为发明这项技术感到无比自豪,并回顾其发展历程及其在此后 40 年的巨大影响。致力于开发尖端和市场领先产品的开发人员持续运用 FPGA 技术推动创新芯片设计、支持硬件辅助验证并加快产品上市时间。AMD 致力于在未来数十年引领这项卓越技术的演进。

围观 14
评论 0
路径: /content/2025/100591873.html
链接: 视图
角色: editor
winniewei的头像
winniewei

Arm 和微软正携手共筑未来,从而使创新不受设备功耗或不同部署环境的限制。在近期举行的微软 Build 大会上,Arm 的愿景实现再次得到体现 —— 致力于确保微软的整个软件生态系统都能访问 Arm 计算平台并从中受益。无论是在 Microsoft Azure 的云端还是在 Windows on Arm PC 的边缘侧,开发者可以在任何地方加速其应用和工作负载。

本次大会展示的亮点如下:

  • 在基于 Arm 架构的 Microsoft Azure Cobalt 100 上部署领先的微软及第三方应用工作负载,包括 Microsoft Defender for Endpoint、Teams,以及 Adobe、Databricks 和 Snowflake;

  • 针对 Azure 的新 Arm Cloud Developer Access Program(云开发者访问计划),以加速开发者向 Cobalt 迁移;

  • 近期,通过 Arm KleidiAI 与 ONNX Runtime 集成,在 Azure Cobalt 100 虚拟机上运行 Phi-4 模型时,词元吞吐量提高了 40%,从而加快了响应速度,并提升了开发者体验;

  • Windows on Arm 势头强劲,为主流应用提供了更多 Arm 原生支持,并增强了开发者支持。

Arm 和微软重新定义能效和性能

参加微软 Build 大会的开发者近距离了解了 Azure Cobalt 100 处理器,该处理器针对性能、能效和可扩展性进行了优化。Azure Cobalt 100 处理器基于 Arm Neoverse 计算子系统 (Compute Subsystems, CSS) 打造,旨在为 Azure 中的通用工作负载提供更高的能效和性能。这不仅关乎基础算力,更是在于实现可持续的创新。微软选择基于 Arm 平台构建,对于推进其可持续发展目标至关重要,并将着重在其整个数据中心实现显著节能。

对于开发者来说,这意味着更出色的能效、更低的运营成本,以及更胜以往的有效扩展人工智能 (AI) 和云原生应用的能力。

随着在 Azure Cobalt 100 芯片上运行的微软和第三方应用工作负载不断增长,微软 Build 大会上展示了其良好发展势头。微软正在 Azure Cobalt 100 驱动的实例上部署两项核心服务 —— Defender for Endpoint 和 Teams。同时,Adobe、Databricks 和 Snowflake 等领先的第三方应用也正被部署至 Azure Cobalt 100 上。

面向 Azure Cobalt 100 Arm 云迁移资源

为了支持和加速开发者在云端采用 Arm 架构,Arm 近期推出了全面的云迁移资源,其核心是新的 Cloud Migration Resource Hub(云迁移资源中心),提供超过 100 个详细的 Learning Path,用于指导开发者在多个平台上无缝迁移常见工作负载。

通过利用这些工具和社区支持,开发者可以简化现有应用的迁移过程,或原生构建针对性能和能效优化的现代云服务。从 .NET 和 Java 应用到开源数据库和网络服务,Azure Cobalt 100 虚拟机可为云原生和 AI 工作负载提供可扩展,且具有成本效益的计算资源。

通过 KleidiAI ONNX Runtime 集成,在 Azure Cobalt 100 虚拟机上加速 AI

近期,KleidiAI 成功集成到微软的 ONNX Runtime 中,标志着又一里程碑的达成。通过直接在端侧实现更智能、更快速的 AI 交互,且无需开发者额外工作,这为在 Windows on Arm 设备上运行应用提供了更为卓越的 AI 体验。

在配备 ONNX Runtime 的 Azure Cobalt 100 虚拟机上运行 Phi-4 Mini 模型,以展示所实现的性能提升。启用 KleidiAI 后,开发者可以看到显著的提升:

  • 词元吞吐量(词元/秒)提高了 40%;

  • 首词元延迟 (TTFT) 提升了超过 34%;

  • 即使在较小的八核实例上,KleidiAI 将吞吐量提高了约 37%,将 TTFT 缩短了约 16%。

Windows on Arm 为全栈开发者提供契机

Windows on Arm 的演进是另一个重要里程碑。许多用户广泛使用的应用现均可在 Windows on Arm 上原生运行,例如百度、哔哩哔哩、爱奇艺、搜狗、腾讯 QQ 音乐、有道词典、剪映、火绒安全、酷狗音乐、微信输入法等。开发者能够以这一成熟、高能效的平台作为目标。从在 Windows on Arm 上使用 Zoom 无缝进行视频会议、在 Fantastical 上感受动态日历体验、通过 NordVPN 进行安全浏览,到利用 Pieces for Developers 实现更智能的开发者工作流,这些实际应用鲜活地展示了 Arm 平台上应用的多样性。

得益于 Arm 与 GitHub 的合作,以及 Windows Arm64 托管运行器正式支持 GitHub Actions,开发者现在可以在 Windows on Arm 上使用全面优化的 CI/CD 管线。通过各地开发者均可免费获取的 GitHub Actions 以及 Arm 专为 GitHub Copilot 设计的扩展程序,开发团队可以加快测试、集成和部署速度,且同时处理多个工作流,为其 AI 工作负载增强性能,并提高效率。

合作方能共创未来,Arm 是未来的基石

微软 Build 大会传递的信息非常明确:从端侧 AI 到超大规模的云应用,开发者可以在 Arm 和微软提供的统一、高能效的基础上进行开发。展望未来,Arm 和微软的合作将继续重新定义硬软件创新的可能性,实现从云端到 PC 的变革性体验。


围观 15
评论 0
路径: /content/2025/100591871.html
链接: 视图
角色: editor
winniewei的头像
winniewei
  • 可为数据中心减少最高40%用电量

  • 提供一站式液冷解决方案,加速部署并缩短启动上线时间

  • 现可通过温水冷却,进水温度最高至45°C,可降低最多40%用水量,进而减少对制冷机(Chiller)的需求

  • 使数据中心可在约50dB音量环境中安静运行

Supermicro, Inc. NASDAQSMCI作为AI/ML、高性能计算、云端、存储和5G/边缘领域的全方位IT解决方案提供商,宣布对其直接液冷(DLC)解决方案进行多项改良。这些改良采用全新技术,包括针对各种服务器组件的冷却、对较高温流入冷却液的支持,以及可提升每瓦AI效率的创新设计。与气冷技术相比,Supermicro DLC-2解决方案能为数据中心降低最高40%的用电量。这些先进技术能为顶尖液冷AI基础设施实现更快的部署,以及更短的启动上线时间。此外,总体拥有成本(TCO)也能通过这些技术减少最高20%。针对系统组件的全面式冷板覆盖配置,能降低散热所需的风扇速度和风扇数量,进而将数据中心噪音等级大幅降低至约50dB。

Supermicro总裁兼首席执行官梁见后表示:"市场对液冷数据中心的需求,在总设施占比上,预计将提升至30%。我们意识到,目前的技术已不足以冷却新型AI优化系统。Supermicro持续致力减少数据中心用电量、用水量、噪音和占地空间,专注推动创新与绿色计算,进而带来更好的AI未来。我们最新的液冷创新技术DLC-2能为数据中心降低最多40%的电力成本。"

欲了解更多信息,请浏览:www.supermicro.com/liquid-cooling

Supermicro将其数据中心建构组件解决方案(DCBBS)与DLC-2结合,致力使数据中心成本降低20%,并让液冷技术变得更普及且易于应用。

此全新液冷架构内的其中一项核心组件为GPU优化Supermicro服务器。该服务器可搭载8个NVIDIA Blackwell GPU和2个Intel® Xeon® 6 CPU,并只需4U的机架空间,能支援较高的冷却液温度。此独特、优化的设计针对CPU、GPU、内存、PCIe交换器和电压调节器配备了冷板,可减少系统对高速风扇和后门热交换器的需求,进而降低数据中心的冷却成本。

全新Supermicro DLC-2解决方案支持新型4U前置I/O NVIDIA HGX™ B200 8-GPU系统。该解决方案的机架内建型冷却液分配装置(CDU)具有经强化的散热性能,可因应每机架250kW的热量。Supermicro DLC-2解决方案也通过垂直式冷却液分配歧管 (CDM)输送出携带热量的冷却液,再将冷却后的冷却液输送回机架内的服务器。系统占用的空间减少后,机架便能安装更多服务器,进而提高每空间单位内的计算密度。而垂直式CDM具有多种外型尺寸,能与安装在机架中的服务器数量进行精准对应。整个DLC-2解决方案与Supermicro SuperCloud Composer®软件进行了完全整合,可支持数据中心级的管理和基础设施协作。

Supermicro's Next-Generation Direct Liquid-Cooling Solutions (DLC-2)

Supermicro's Next-Generation Direct Liquid-Cooling Solutions (DLC-2)

高效冷却液循环和将近全面的液冷热捕获范围(最高可达每服务器机架的98%),能使用最高45°C的冷却液作为进水端液体,免除了冷却水、制冷压缩机设备成本和额外用电量,进而降低最多40%的数据中心用水量。

DLC-2技术结合了液冷服务器机架和集群,并提供混合式冷却塔和水塔,而这些冷却塔也是数据中心建构组件的一部分。其中,混合式冷却塔将标准干式冷却塔和水塔的性能整合至一个设计内,可进一步减少数据中心的资源使用量和成本,特别是针对建置在季节温度差异较大的地区内的数据中心。

Supermicro作为全方位的一站式解决方案供货商,具备全球级规模的制造产能,并提供数据中心级解决方案设计、液冷技术、网络、布线、完整的数据中心管理软件套件、L11与L12解决方案验证、现场部署,以及专业服务与支持。Supermicro的制造设施遍布圣何塞、欧洲和亚洲,拥有空前的液冷机架系统制造产能,可确保及时交付、降低总体拥有成本(TCO),以及提供稳固的质量。

关于 Super Micro Computer, Inc.

Supermicro(纳斯达克股票代码:SMCI)是应用优化全方位IT解决方案的全球领导企业。Supermicro的成立据点及运营中心位于美国加州圣何塞,致力为企业、云端、AI和5G电信/边缘IT基础架构提供领先市场的创新技术。我们是全方位IT解决方案制造商,提供服务器、AI、存储、物联网、交换器系统、软件及支持服务。Supermicro的主板、电源和机壳设计专业技术进一步优化我们的开发与生产,为我们的全球客户实现从云端到边缘的新一代创新。我们的产品皆由企业内部团队设计及制造(在美国、亚洲及荷兰),经由产品设计优化降低总体拥有成本(TCO),并通过绿色计算技术减少环境冲击,且在全球化运营下达到极佳的制造规模与效率。屡获殊荣的Server Building Block Solutions®产品组合使客户能从极多元系统产品线内选择合适的机型,进而将工作负载与应用达到最佳性能。多元系统产品线由高度弹性、可重复使用的建构组件打造而成,而这些组件支持各种硬件外形规格、处理器、内存、GPU、存储、网络、电源和散热解决方案(空调、自然气冷或液冷)。

稿源:美通社

围观 53
评论 0
路径: /content/2025/100591870.html
链接: 视图
角色: editor
winniewei的头像
winniewei

全球权威调研机构IDC最新《2024中国企业级固态硬盘市场跟踪报告》显示,忆联以11.4%的市场份额(覆盖PCIe/SATA/SAS接口类型)问鼎中国企业级固态硬盘市场国产厂商冠军。

面对数字经济深化与企业级存储市场持续承压的双重考验,忆联凭借"技术破壁+战略深耕"双轮驱动在逆势下取得显著增长。其自有品牌业务聚焦互联网、运营商、整机厂商及金融等核心领域,年度出货量同比激增117%,以增速超越行业均值60%的绝对优势,刷新国内企业级存储市场年度增速纪录,领跑行业。

数据来源:IDC《中国企业级固态硬盘市场份额,2024》

数据来源:IDC《中国企业级固态硬盘市场份额,2024》

  • 市场领导地位:忆联以持续领先优势蝉联中国企业级固态硬盘市场前三强(2022-2024),连续三年稳居企业级国产固态存储厂商榜首,彰显国产高端存储领军实力。

  • 突破性增长曲线:2024年度忆联自有品牌业务出货量实现117%同比暴增,增长率超越行业均值60%,缔造存储业界增速标杆。

  • 头部客户生态圈:以互联网行业巨头为核心增长引擎,整合全球知名整机厂商、超大规模云服务商及金融科技领导者,构建深度协同的产业生态。

  • 产品统治力显现:忆联在中国区企业级PCIe固态硬盘总容量市占率突破12.3%关键节点,以领先优势领跑国产存储赛道,持续扩大技术代差竞争优势。

中国区ESSD与忆联自有ESSD出货量增长率

中国区ESSD与忆联自有ESSD出货量增长率

持续领跑国产企业级 SSD,全栈式产品创新矩阵驱动产业生态重构

作为国产存储技术的领军企业,忆联凭借自主研发的主控芯片架构与创新智能算法取得技术代际的跨越式发展,成为国内唯一同时覆盖企业级固态硬盘市场主流产品接口协议的国产厂商,其产品矩阵全面支持PCIe、SAS及SATA三大主流接口标准,构建了完整的企业级存储解决方案体系

  • 企业级 SSD:推出全场景适配的PCIe 5.0 ESSD UH812a/UH832a,数据吞吐效率是上一代(PCIe 4.0 SSD UH811a系列)的2倍,以跨代际技术突破实现性能飞跃,为AI模型训练、实时大数据分析、高密度云计算及5G边缘计算等场景构建存储新基准。

  • 数据中心级 SSD:推出第二代数据中心级SSD,通过高吞吐架构设计,可轻松应对海量数据并发处理,显著降低TCO,适配AI、互联网及超大数据中心等复杂业务场景。

  • 高性能 SAS SSD:采用SAS 3.0双端口的企业级SSD UH6系列,通过双端口和冗余通道设计,配备先进的数据恢复与备份机制,确保了数据的高可用性与强大的容错能力,还提供了灵活的扩展性选项,完美匹配金融行业对数据安全性、可靠性及业务连续性的严苛需求。

  • 主流 SATA SSD:推出高性能、高可靠、高性价比的企业级SATA SSD UM311b系列,可为互联网、运营商等行业客户提供稳定可靠的存储服务。

质量与技术的双轮驱动,构建客户信任壁垒

忆联依托自主构建的企业级存储创新中心,已形成覆盖全链路的存储产品验证体系、多场景适配能力与深度调优技术实力。产品可靠性达行业标杆水准,故障率控制指标进入全球存储领域第一梯队,关键性能参数实现与头部厂商的全面对标。

作为产品价值的重要延伸,忆联构建了全维度技术服务保障体系。我们以资深专家领衔的技术支持团队为基石,依托智能诊断系统和行业解决方案库,为客户提供多重价值保障,助力客户构建稳健的业务连续性保障体系,帮助行业客户实现年均故障率下降和运维效率提升。

近年来,忆联以技术深耕与生态协同双轮驱动,实现品牌价值跃升新高度。在战略布局层面,成功跻身英特尔至强®平台固态硬盘合作伙伴,成为行业标杆案例,更以首批核心成员身份深度参与英特尔数据中心与人工智能事业部(DCAI)中国区关键组件验证项目,在服务器系统验证、部件兼容性测试等关键环节发挥重要作用,彰显其在数据中心领域的全栈技术能力。

忆联成为英特尔®至强®平台固态硬盘合作伙伴

忆联成为英特尔®至强®平台固态硬盘合作伙伴

2025年企业级固态硬盘市场迎来技术跃迁关键节点,忆联以持续突破的底层技术研发能力和商用验证的产品体系,进一步巩固行业地位,印证了市场对其专业级存储解决方案的高度认可。面对AI大模型从PB级训练到底层算力实时响应的全周期挑战,忆联基于全自研主控芯片与创新算法,深化系统级架构创新,构建涵盖数据预处理、模型训练和边缘推理的全栈式存储解决方案,实现从超大规模数据中心到边缘计算节点的全场景覆盖能力。

稿源:美通社

围观 33
评论 0
路径: /content/2025/100591869.html
链接: 视图
角色: editor
winniewei的头像
winniewei
  • 此项易于设计、建构、部署及运营的解决方案适用于所有关键型计算和冷却基础设施

  • 快速部署、启动上线,完整配备AI/IT数据中心的必须组件

  • 通过从系统、机架再到数据中心级的模块化建构组件解决方案架构降低成本

  • Supermicro领先业界的设计、制造产能、管理软件、现场服务和全球支持,具备极佳的质量和可取得性

Supermicro, Inc. NASDAQSMCI作为AI、云端、存储和5G/边缘领域的全方位IT解决方案提供商,宣布推出数据中心建构组件解决方案(Data Center Building Block Solution;DCBBS)。液冷AI工厂配备关键基础设施组件(包括服务器、存储、网络、机架、液冷、软件、服务和支持)的程序具高度复杂性,而DCBBS是最轻松的解决方案。DCBBS作为Supermicro系统建构组件解决方案的延伸技术,采用标准化、高灵活性的解决方案架构,大幅提升了服务规模,能因应最高需求的AI数据中心训练与推理工作负载,并可简化数据中心项目规划、建设和运营,同时降低成本。

Supermicro总裁兼首席执行官梁见后表示:"Supermicro DCBBS为客户提供最快速的产品上市时间和启动上线时间,使数据中心基础设施建构变得更容易,且最快三个月内即可完成部署。通过我们全面的解决方案涵盖范围,包括数据中心配置与网络拓扑设计、电源和电池备用单元,DCBBS可简化并加速AI数据中心的建设,进一步降低成本并提高质量。"

欲了解更多信息,请浏览:www.supermicro.com/DCBBS

DCBBS提供经预先验证的数据中心级可扩充单元方案,包含具有256个计算节点的AI工厂DCBBS可扩充单元,能提供成套经优化的平面图、机架图和组件列表等,降低冗长的数据中心设计工作量。Supermicro提供完善的第一方服务,涵盖咨询、现场部署和长期现场支持,进而确保项目完成。DCBBS可进行系统级、机架集群级和数据中心级的定制化,能因应几乎任何项目需求。

DCBBS在结合我们的DLC-2技术后,能帮助客户节省最多40%电力,并减少最高60%数据中心占地面积与40%用水量,进而使总体拥有成本降低20%。

AI 工厂数据中心级可扩充单元

目前市场对AI基础设施的需求正不断扩大:AI训练计算集群需要数千个GPU来开发核心模型。而AI推理应用也通过数个模型运行多重推理程序,需要更多测试时计算性能(Test-Time Compute)以提供更优越的智能功能。Supermicro的AI工厂DCBBS方案可全方位提升数据中心性能,以因应这些日益增高的AI计算需求。

Supermicro的解决方案包括最高256个液冷4U Supermicro NVIDIA HGX系统节点,而每个系统搭载8个NVIDIA Blackwell GPU(共2,048个GPU),通过最高800Gb/s的NVIDIA Quantum-X800 InfiniBand或NVIDIA Spectrum X以太网络平台进行互连。该解决方案的计算结构是基于高灵活性的可扩充式分层存储,具有高性能PCIe Gen5 NVMe、总体拥有成本优化数据湖节点,以及稳固耐久的管理系统节点,可实现不间断的持续性运行。

系统级、机架级和数据中心级定制化

Supermicro的模块化建构组件技术包含系统级、机架级和数据中心级这三个层级,可为客户提供极佳的设计方案,并明确系统级组件列表,包括CPU、GPU、DIMM、驱动器和NIC等组件。其中,系统级定制化可因应特定数据中心工作负载和应用的专门性硬件需求,同时也能实现针对数据中心资源的精密微调。

Supermicro可协助设计机架机壳图(Elevation layout),确保散热和布线的优化,并能供客户选择包括42U、48U和52U等配置的机壳规格。

与客户进行初步咨询后,Supermicro便会依据数据中心电力配额、性能目标,或其他需求,提供量身打造的方案。

DCBBS

DCBBS

Supermicro DLC-2

液冷数据中心的市场占比在一年内从不到1%成长到预期的30%。Supermicro可协助客户打造散热效率更高的新型液冷数据中心,进而推动业内的DLC技术普及。

DLC具有空前的冷却效率,能直接对各芯片(包括以1000W TDP或更高功率运行的AI GPU)进行散热。液冷基础设施是以数据中心规模进行规划和部署,包括散热管线和设施端液冷水塔。Supermicro领先业界,提供直达芯片液冷基础设施一站式解决方案,包含DLC系统、机架内或一对多冷却液分配装置、冷却液分配歧管和冷却水塔等。Supermicro DLC-2技术的进一步改良包括:

液冷板

CPU、GPU、PCIe交换器、DIMM、VRM、PSU等

最高进水温度

最高45°C

噪音等级

最低50dB

LC热捕获

最高98%

数据中心省电量(与气冷技术相比)

最高40%

服务和软件建构组件

DCBBS提供包含支持快速上市时间和启动上线时间的服务,使客户无需消耗自身IT资源。Supermicro也具有完善服务型建构组件产品组合,涵盖数据中心设计、解决方案验证和专业现场部署,以及持续性的现场支持,确保长期运作,并针对关键任务运行时间提供4小时现场响应方案。

Supermicro的SuperCloud Composer®提供一整套基础设施管理功能,具有优越的分析性能,能以云端规模管理计算、存储和网络建构组件。

除了服务,Supermicro在数据中心应用整合方面亦具备广泛的专业知识,涵盖AI训练、AI推理、集群管理和工作负载协作等领域,其中也包括帮助客户部署NVIDIA AI Enterprise软件平台。此外,Supermicro亦可根据客户的软件堆栈,提供全面的软件布建和验证服务。

关于 Super Micro Computer, Inc.

Supermicro(纳斯达克股票代码:SMCI)是应用优化全方位IT解决方案的全球领导企业。Supermicro的成立据点及运营中心位于美国加州圣何塞,致力为企业、云端、AI和5G电信/边缘IT基础架构提供领先市场的创新技术。我们是全方位IT解决方案制造商,提供服务器、AI、存储、物联网、交换器系统、软件及支持服务。Supermicro的主板、电源和机壳设计专业技术进一步优化我们的开发与生产,为我们的全球客户实现从云端到边缘的新一代创新。我们的产品皆由企业内部团队设计及制造(在美国、亚洲及荷兰),经由产品设计优化降低总体拥有成本(TCO),并通过绿色计算技术减少环境冲击,且在全球化运营下达到极佳的制造规模与效率。屡获殊荣的Server Building Block Solutions®产品组合使客户能从极多元系统产品线内选择合适的机型,进而将工作负载与应用达到最佳性能。多元系统产品线由高度弹性、可重复使用的建构组件打造而成,而这些组件支持各种硬件外形规格、处理器、内存、GPU、存储、网络、电源和散热解决方案(空调、自然气冷或液冷)。

稿源:美通社

围观 19
评论 0
路径: /content/2025/100591868.html
链接: 视图
角色: editor
winniewei的头像
winniewei

近日,深圳市华普智云科技有限公司(以下简称“华普智云”)宣布成功研发并推出一款新型多功能物联网监控设备(专利号:CN 222911313 U),该设备凭借创新的结构设计与卓越的性能,为工业物联网领域提供了更高效、便捷的监控解决方案,标志着公司在智能硬件研发领域迈出重要一步。

1.png

创新设计,破解传统监控设备安装难题

针对传统物联网监控设备安装繁琐、拆装效率低等痛点,华普智云这款新型设备采用独特的连接套管与安装座插接结构,通过压缩弹簧驱动的锁定机构,实现了监控设备主体与安装座的快速锁定与拆卸。只需通过拨动爪转动调节盘,即可通过驱动槽与驱动销的配合,轻松控制锁定插杆的伸缩,无需频繁操作螺钉,大幅降低了安装维护的复杂度,显著提升了工作效率。

2.png

同时,设备设置的导向滑块与导向槽配合结构,在安装时可精准定位锁定机构与锁定孔,进一步简化了安装流程,即使在复杂环境下也能快速完成设备部署。

稳定可靠,适应多元工业场景

在性能方面,该设备具备出色的环境适应性。其锁定机构通过压缩弹簧持续提供稳定弹力,确保锁定插杆与锁定孔紧密配合,保障设备安装后的牢固性,可承受工业场景中的振动、冲击等挑战。

设备的锁定插杆与连接套管配合部分采用圆形截面,与定位支架配合部分则为六边形截面,这种设计有效防止了插杆转动,确保驱动销与驱动槽稳定协作,提升了设备在长期使用中的可靠性。此外,设备支持多种安装环境,无论是工厂车间、仓储物流还是能源设施等场景,均可稳定运行,为工业生产、安防监控等提供了坚实保障。

技术领先,赋能工业智能化升级

作为华普智云在物联网领域的又一创新成果,该多功能监控设备不仅解决了传统设备的实际痛点,更体现了公司在智能硬件研发上的技术积累。通过将机械结构创新与物联网技术深度融合,该设备可无缝接入工业物联网系统,实现数据的实时采集与传输,为智能工厂、智慧园区等场景提供了更智能、更高效的监控手段。

未来,华普智云将继续秉持创新驱动发展理念,持续深耕工业物联网领域,以领先技术和优质产品推动行业智能化升级,为客户创造更大价值。

来源:深圳市华普智云科技有限公司

围观 7
评论 0
路径: /content/2025/100591866.html
链接: 视图
角色: editor
winniewei的头像
winniewei

作者:电子创新网张国斌

昨天有读者后台问了一个问题:为什么手机基带设计那么难?苹果挖了很多人搞了那多年都没彻底解决?这里从设计挑战、内部架构以及整体支出角度给大家科普一下。

手机蜂窝基带(Cellular Baseband)是手机通信系统的“大脑之一”,负责实现从物理层到中高层协议的数据处理、控制与调度,其功能相当于把射频收发回来的模拟信号变成手机能用的数据,或者反过来将上层的数据封装、编码成可发射的无线信号。


一、基带的基本功能

蜂窝基带主要处理以下功能模块:

功能模块

说明

物理层(Layer 1)处理

包括调制解调、信道编解码、信道估计、MIMO处理等,是整个通信数据路径的底层核心

媒体访问控制(MAC)层

负责资源调度、数据分段重组、重传机制(HARQ)等

RLC/PDCP/RRC等协议处理

管理数据加密、完整性保护、分段重组、连接控制等功能

功控/速率控制/时序控制

实现功率调节、调度命令处理、时间对齐(尤其TDD模式)

多模制式切换与互操作性

支持2G/3G/4G/5G,甚至WLAN等多协议共存、切换

接口管理

包括与射频(RF)模块的数据通信,与应用处理器(AP)的高速数据通道(PCIe、SDIO、USB等)

二、基带芯片的主要组成结构

基带芯片一般是高度集成的SoC架构,主要包括以下几个子模块:

1. 数字信号处理器(DSP)/专用加速器

  • 负责物理层高强度计算:

    • 调制解调(QAM、SC-FDMA、OFDM)

    • LDPC/Polar 编解码

    • 信道估计与均衡

    • FFT/IFFT 等算法处理

  • 高端设计中使用多个DSP+NPU+硬件加速模块协同。


2. 协议处理单元(Protocol Stack Processor)

  • 通常为通用MCU或异构CPU(Arm Cortex-R/A系列);

  • 执行RLC、PDCP、RRC等中高层通信协议;

  • 处理安全、加密、信令连接管理、无线资源控制等任务;

  • 某些任务可由协处理器或专用加密单元加速(如IPSec、SNOW3G/AES)。


3. 调度与资源管理模块

  • MAC调度器,控制上行下行资源的动态分配;

  • 管理传输队列、重传缓存、HARQ反馈。


4. 时钟与同步模块

  • 精确控制通信时序,支持帧/子帧级同步;

  • 支持TDD/FDD时隙切换控制。


5. 基带与射频接口

  • 通过 MIPI DigRF 或自定义高速并口与 RF 芯片通信;

  • 处理IQ数据、控制字、时钟同步信号;

  • 支持射频频段切换、PA/LNA控制、校准反馈。


6. 与应用处理器接口

  • USB/PCIe/SDIO 通道传输上层数据;

  • IPC(进程间通信)传输控制信息;

  • 可集成共享内存区域供数据高速搬移(DMA)。


7. 功耗管理与睡眠控制单元

  • 支持多级低功耗模式(例如eDRX、PSM);

  • 联动射频、应用处理器、调度器进行整机功耗管理;

  • 管理wake-up、resume、sleep等状态。


三、蜂窝基带芯片的逻辑结构图(文字简图)

    [ 上层协议栈处理器 ]

    |  RRC / PDCP / RLC  |

-----------------------

    |     MAC 调度器      |

-----------------------

    | 物理层处理器(DSP) |

    | - OFDM/SC-FDMA     |

    | - LDPC/Polar Code  |

    | - MIMO/信道估计     |

-----------------------

    |  时钟/同步管理模块  |

-----------------------

    |      射频接口       | <----> 射频收发芯片

-----------------------

    |    应用接口(PCIe) | <----> AP/Modem Host


四、手机基带发展趋势

趋势

说明

Modem+AP深度集成(SoC化)

如高通Snapdragon,将基带和应用处理器集成,提升能效与面积效率

向异构计算迁移

引入AI加速、VLIW/NPU/FPGA等架构,加速信号处理与协议堆栈

支持多模多频高集成

包括5G NR、LTE、3G、2G、Wi-Fi、BT 的统一调度和互操作

软件定义无线电(SDR)能力增强

提高灵活性,降低未来制式演进成本

节能与动态功控更智能

节能是永恒课题,特别在IoT/智能穿戴/6G等低功耗场景下

五、手机基带设计难在哪里?

手机蜂窝基带(Cellular Baseband)设计堪称是现代SoC系统中最复杂、最高壁垒的部分之一,其挑战来自于技术难度极高、标准复杂、集成度高、验证周期长、专利门槛重重

以下是几个主要方面的设计挑战和难点:

5.1、协议复杂且不断演进

我们所处的通信是多代并存 ,目前是2G/3G/4G/5G乃至未来6G,这每一代通信协议涉及的信道结构、调制编码方式、链路控制机制都不同。基带需要同时兼容多种制式、支持多频段和载波聚合(Carrier Aggregation)这就增加了架构的复杂性。

以3GPP标准为例,每一版Release有数千页技术规范。标准更新频繁,设计需灵活适配,标准跟随能力是技术壁垒之一,要紧跟标准必须有大量技术人员参与其中。

5.2、实时高并发信号处理挑战

由于基带芯片负责整个通信链路的物理层(PHY)和部分MAC层处理, 因此超高性能要求,尤其在5G NR中,涉及大规模MIMO、多用户并发、低时延要求、上下行高吞吐量场景下,计算量和带宽压力非常大,常用 SIMD/VLIW/DSP/NPU 协同设计。

此外,实时性和确定性也让设计挑战非常大,例如 HARQ(Hybrid ARQ)反馈机制要求在几百微秒内完成计算、解码和响应,而任何延迟都可能引发数据重传,影响网络性能。

5.3、软硬件协同复杂

基带的硬件架构非常复杂、包括调制解调(Modem)、信道编解码(Turbo/LDPC/Polar Code)、信号估计、均衡、同步等模块。它高度依赖异构计算单元(DSP/NPU/ASIC块)协同。而同时,其软件栈也异常繁重:协议栈实现难度大,从L1(物理层)到L3(网络层)要与操作系统和应用协同。功能众多,协议兼容性、稳定性、可调试性要求高。

5.4、多频段支持和射频协同

蜂窝通信要支持全球网络,基带就要获得和处理不同国家通信频带的信号,虽然基带本身不处理模拟射频,但频段、调制方式和射频前端必须高度匹配,支持全球运营商网络需适配数十种频段(尤其5G Sub-6 + mmWave)。射频前端和基带之间需要高效的数字接口(如MIPI DigRF)。基带设计必须考虑频谱利用效率、功耗动态调整等与射频的协同优化问题。这里我在网上找了一些资料把目前2G3G4G5G的频谱频带划分展示一下:

目前3GPP已指定的5G NR频段具体如下:FR1 (450 MHz–6000MHz):

1.png

FR2:

2.png

4G LTE频带

3.png

4.png

3G WCDMA

5.png

3G TD-SCDMA

TD-SCDMA

频段号频率范围(MHz)

331900 - 1920

342010 - 2025

351850 - 1910

361930 - 1990

371910 - 1930

382570 - 2620

391880 - 1920

402300 - 2400

2G GSM

6.png

备注:

P-GSM,基准GSM-900频带

E-GSM,扩展GSM-900频带(包括基准GSM-900频带)

R-GSM,铁路GSM-900频带(包括基准和扩展GSM-900频带)

T-GSM,集群无线系统-GSM

ER-GSM900,即为Extended Railway GSM 900, 在原铁路通信系统的基础拓宽了其频率范围(TX:873-915,RX:918-960)。

CDMA

7.png

要适配如此多的频段,设计挑战可想而知!

5.5、极致功耗控制

手机设备对功耗极其敏感,基带芯片需支持多级动态功耗管理(DVFS、时钟门控、睡眠唤醒机制),5G下行速度提升意味着芯片内部数据搬移量极大,需优化DMA、总线和缓存系统以控制功耗。

5.6、验证与测试极其复杂

覆盖所有协议场景、频段、网络拓扑的测试极其耗时,常用百万条用例。还需进行现场网络验证(field test),涉及不同国家、运营商和设备厂商。许多bug仅在极端网络环境下复现,验证周期可长达1-2年,这个挑战也是非常巨大的,不但需要人力物力还需要去当地测试,不过 一些测试可以委托给运营商。

5.7、知识产权和专利壁垒

在移动通信领域,华为、高通、爱立信、诺基亚、三星等持有大量相关基础专利,要设计基带无法绕开很多专利,避开专利雷区并确保协议兼容,是新进入者面临的巨大法律和技术挑战

总结下来基带设计挑战主要体现在

因素

描述

技术复杂度

多协议、多频段、异构计算、实时处理

标准壁垒

需精通3GPP协议,标准演进快

系统集成度

与射频、天线、AP协同,SoC封装难度高

功耗要求

多模式动态控制、热设计挑战大

验证难度

长周期、多场景测试,不容出错

专利门槛

极高的IP壁垒和授权成本

举个例子,看看5G基带中的 LDPC 解码加速设计

LDPC 是 5G eMBB 场景的主力信道编码,5G 新空口(NR)在物理层上使用了两种信道编码方案:

  • LDPC(Low-Density Parity-Check):用于下行与上行共享信道(PDSCH/PUSCH)的大部分数据传输。

  • Polar Code:用于控制信道(如PDCCH)。

LDPC 相比 Turbo 编码(4G主力)在并行性、误码率性能、低时延方面更适合大数据量高速传输。


✦ LDPC 解码的挑战:

  1. 迭代运算密集

  • LDPC 是一种基于图的迭代解码算法,最常用的是 Belief Propagation 或其近似(Min-Sum)。

  • 每轮迭代涉及大量乘加、最大/最小值运算,计算密集度高。

  • 吞吐量要求高

    • 下行用户速率可达 Gbps,LDPC 解码必须在数百微秒内完成。

  • 硬件并行性设计复杂

    • LDPC 的码本结构稀疏,但具有行列关联性,需专门设计交织器(interleaver)、调度机制避免数据冲突。


    ✦ 加速设计手段:

    技术点

    描述

    并行解码架构(Parallel Decoder Array)

    通过构建多个并行处理单元(PE),分摊行列节点处理任务

    Min-Sum Approximation

    用于近似简化Belief Propagation中的复杂函数计算

    内存访问优化

    通过专用交织存储器设计(RAM Bank)减少冲突和等待

    动态迭代控制

    支持早停机制(early termination),节省功耗与延迟

    可配置LDPC内核

    提供灵活可配置结构支持不同码率、码长

    有些高端芯片会为 LDPC 解码单独设计 ASIC IP(如高通X70),而国产玩家往往以 DSP+ASIC 混合架构起步。


    射频(RF)与基带协同的接口设计

    前面说过,在手机SoC中,基带负责数字信号处理,射频芯片负责模拟射频发射/接收。二者需要通过高速数字接口协同工作,关键接口包括:

    • IQ数据接口

    • 控制与状态接口

    • 同步时钟接口


    ✦ 射频-基带接口关键标准

    接口标准

    描述

    MIPI DigRF v4/v5

    支持最高10Gbps,主要用于基带与射频芯片之间的数据传输

    JEDEC JESD207

    用于收发数据与控制信息

    SLVS/CMOS接口

    低速控制路径,例如射频频段切换、校准

    TSF(Timing Synchronization Function)

    保证时钟同步,满足TDD上/下行切换、MIMO同步精度

     协同设计的难点

    1. 数据速率极高

    • IQ样本速率高,尤其在载波聚合和多天线(MIMO)环境中。

    • 要求接口具备高带宽、低延迟、低抖动(jitter)特性。

  • 射频功耗动态调节与基带联动

    • 例如在信号弱时动态提升PA(功率放大器)增益,在空闲时关闭LNA。

    • 这些调节动作需由基带实时控制,确保网络稳定。

  • 多通道MIMO同步要求严苛

    • 上下行信号必须精确同步,涉及多个通道的相位对齐、时钟校准。

  • 校准机制与闭环反馈

    • 包括射频校准(IQ平衡、DC offset)与发射功率控制(TPC)。

    • 基带需实时反馈并更新RF参数,形成闭环控制。


    ✦ 典型实现方式(简化图示)

    | 基带芯片 |

    |----------|

    | 数字基带处理器(DSP)     |

    | LDPC解码模块             |

    | 调制/解调模块             |

    | 数模转换(DAC)           |

    | MIPI DigRF 接口 ---------> 射频芯片

    |   射频前端(LNA/PA/Filter)

    |   频率合成器

    |   模数转换(ADC)

    |   射频开关控制器


    总结对比

    模块

    设计重点

    挑战

    LDPC 解码

    高吞吐、并行计算、低功耗

    解码算法复杂、功耗/延迟限制、架构优化困难

    射频协同接口

    高频率IQ数据传输、同步控制、射频调节

    接口带宽、射频行为控制、跨域同步

    设计一款兼容多模(2G/3G/4G/5G)蜂窝基带芯片,是当前半导体行业中最复杂、最烧钱、门槛最高的项目之一。这类芯片不仅仅是设计电路,更需要对通信标准、算法、系统验证、射频协同、软件协议栈、认证测试、IP授权、量产流程等全流程进行重度投入。

    以下对人力、资金、周期等核心投入的系统性评估(这是某AI大模型给出的总结,仅供参考):


    一、资金投入估算(基于中高端5G多模基带)

    阶段

    内容

    预估成本(人民币)

    ❶ 前期IP授权/标准许可

    购买LDPC/Polar Code IP、3GPP协议库、高速接口IP(如PCIe、USB、DDR)、Arm/DSP授权、标准专利池费用(如MPEG LA、Sisvel、ETSI)

    1~2亿元

    ❷ 芯片设计与验证

    架构设计、RTL开发、FPGA原型验证、前后端设计、低功耗优化、DFT/DFD等

    3~5亿元

    ❸ 芯片流片

    多次工程流片(28nm/16nm/7nm),每次费用3000万1亿不等,考虑35次迭代

    1~3亿元

    ❹ 软件栈开发

    包括物理层算法固化、中高层协议栈(RRC、MAC、RLC、PDCP)、调度器、功耗控制、通信协议适配(Android/Linux)

    1~2亿元

    ❺ 验证测试与认证

    实验室测试、射频一致性测试、全球各国/各运营商认证(GCF/PTCRB/CE/FCC/运营商定制测试)

    5000万~1亿元

    ❻ 工具/测试平台购买

    原型验证FPGA平台、协议分析仪、通信测试仪(如Keysight、R&S 5G仪表),搭建真实网络环境

    数千万元

    总计

    12亿

    注:以上是有经验团队且已有基础IP积累情况下的合理估算。初创团队从零起步,则投入可能更高,时间更长。


    二、人力投入需求

    角色类型

    细分岗位

    人员规模(估算)

    系统/算法

    通信系统架构、MIMO/调制算法、LDPC/Polar设计、同步时钟设计

    50~80人

    前端设计

    RTL设计、功耗优化、接口逻辑(AXI/AHB等)、内存控制器、SoC总线

    50~70人

    后端设计

    综合、布局布线、时序收敛、DFT/DFD、EM/IR分析

    30~50人

    软件团队

    物理层固件、MAC层调度、RRC协议、驱动栈(Linux/Android)、功控管理

    100~150人

    验证/测试

    仿真验证、FPGA验证、协议一致性测试、运营商场测、工信部测试

    50~100人

    系统集成与PM

    产品管理、跨部门协作、平台验证、IP集成、运营商对接

    20~40人

    其他

    射频协同、UI交互、客户支持、市场/售前等

    20~30人

    合计:300~500人左右的跨学科高水平团队,至少需持续投入2~3年。


    三、周期预估

    阶段

    时间

    架构设计与前期调研

    3~6个月

    设计开发阶段

    12~18个月

    初次流片与调试

    6~9个月

    验证与认证、量产准备

    6~12个月

    合计

    2.5~3.5年

    四、面临的关键风险

    1. 专利封锁:高通、爱立信、诺基亚等拥有大量SEPs(标准必要专利),需谨慎规避或支付许可费用;

    2. 协议兼容问题:3GPP兼容性测试要求极高,容易在小众场景或边缘情况出错;

    3. 量产难度大:工艺迁移、良率控制、封装测试、功耗控制等对团队经验依赖极高;

    4. 市场与资金回报周期长:在没有成熟运营商订单的情况下,ROI周期可能超5年;

    5. 竞争环境残酷:目前市面上成熟的基带供应商仅剩高通、联发科、三星、华为、紫光展锐等少数几家,已形成高壁垒垄断。


    总结

    设计一款兼容2G~5G多模蜂窝基带芯片

    维度

    典型规模

    人力投入

    300~500人(覆盖硬件、算法、软件、系统)

    资金需求

    8~15亿元人民币

    研发周期

    约2.5~3.5年

    风险等级

    极高(标准壁垒+专利+复杂度+验证难)

    总之,设计手机基带芯片挑战极大,风险极大,而且需要长时间的积累!该领域慎入慎入慎入!

    注:本文为原创文章,未经作者授权严禁转载或部分摘录切割使用,否则我们将保留侵权追诉的权利

    围观 90
    评论 0
    路径: /content/2025/100591863.html
    链接: 视图
    角色: editor
    winniewei的头像
    winniewei

    当前,工业智能化加速推进,传统物联网系统面临数据价值挖掘不足、响应延迟高、决策依赖人工等核心挑战,亟需新一代技术架构实现突破。

    5月30日,瑞风协同正式发布智能物联平台aiTSphere。该平台是基于公司旗舰产品“试验测试集成软件TAdapter”的AIoT全新智能升级,深度融合人工智能(AI)与物联网(IoT)技术,通过嵌入大模型及智能算法,赋予物联系统感知、分析、学习和自主决策能力,为工业场景提供从数据采集到智能应用的全链路闭环解决方案。aiTSphere的推出标志着工业物联从“连接控制”向“智能决策”的关键转变,为企业数智化升级提供坚实支撑。

    1.png

    重构工业物联架构

    端边云协同闭环智控

    aiTSphere的核心架构采用“端-边-云”三级协同设计,重构工业数据处理与决策流程。

    2.png

    设备层

    平台兼容Modbus、OPC UA、CAN、BACnet等20余种工业协议,支持接入传感器、测试仪器、PLC、工业相机、RFID读写器等上千类设备,实现温度、振动、图像、位置等多模态数据的全域采集。

    边缘侧

    轻量化AI模型以<50ms的延迟完成实时分析——例如通过AI算法检测设备异常振动,或基于强化学习动态调整工艺参数,并可在断网时执行离线自治,保障关键业务连续性。

    云端

    MLOps平台aiModel驱动预测模型持续进化:通过数据预处理、特征工程与自动化训练流程,构建高精度寿命预测模型;智能体平台aiAgent结合RAG技术检索知识库,生成设备维护建议;规则引擎则实现跨系统数据聚合与事件响应,例如关联PLC状态变化自动触发固件升级。

    aiTSphere的分层智能体系使之具备主动决策能力。例如,当风机轴承振动超阈值,边缘节点即时告警并联动PLC降速;当生产工艺偏离最优区间,云端基于数字孪生仿真验证调参方案并下发执行,形成“感知-分析-决策-执行”的完整闭环。

    3.png

    突破技术边界

    四大引擎破解工业智能化瓶颈

    平台的核心能力由四大技术创新支撑:

    云训边推,工业实时智控

    通过云端MLOps平台(aiModel)集中训练高精度模型,经轻量化压缩后自动分发至边缘节点执行本地推理;同时基于联邦学习机制聚合边缘数据更新云端模型参数。该架构动态调度计算任务——将实时性要求高的分析(如设备异常检测)下沉至边缘,复杂计算(如寿命预测)交由云端处理,从而在万级设备并发场景下优化算力资源配置,实现延迟与成本平衡。

    联邦学习与自适应训练机制

    基于云平台aiModel的分布式训练能力,在数据不出域的前提下协调多个边缘节点协作建模——各节点利用本地数据训练模型参数,云端仅聚合梯度更新全局模型。同时通过在线学习机制实时吸收新数据流:边缘节点持续上传脱敏特征,云端动态优化模型参数并下发增量更新。

    多模态智能感知融合技术

    通过统一接入传感器、温湿度探头、工业相机等异构设备,对时序信号、图像流、文本日志等原始数据实施时空对齐,并基于边缘计算节点执行特征提取。该技术突破传统单源数据局限——例如在设备健康监测中,同步关联振动频谱、红外温度图与运维日志,构建多维故障特征向量;在工艺优化场景,融合传感器读数、质检图像与环境参数生成复合工况画像。通过消除信息碎片化,提升决策精度。

    基于规则链引擎的自动化机制

    该技术通过灵活组合过滤、扩充、转换、分析等七类规则节点,实现跨系统数据路由、实时事件响应与自动化控制。在工业场景中,规则链可直接联动PLC执行工艺调整,或触发预测性维护流程。基于规则引擎的自动化机制,aiTSphere能够满足工业场景高并发、低延迟的可靠性要求。

    场景案例

    降本增效的智能化转型样板

    在工业实践中,aiTSphere已助力多个领域实现效能提升。例如,某航发研究院应用平台构建故障诊断系统,端侧实时采集试车台千维参数,边缘节点通过Adaboost模型毫秒级识别异常征兆,云端融合历史故障库与专家经验生成诊断报告,提升故障追溯效率,大幅降低维修成本。

    驱动可持续价值

    从数据资产到生态共赢

    瑞风协同aiTSphere重新定义工业物联的价值维度。作为试验测试集成软件TAdapter的AIoT升级版本,aiTSphere在继承其全域数据采集能力的基础上,构建弹性进化体系——通过在线学习机制持续吸收新数据,动态适应工况变化并沉淀行业知识图谱;作为开放生态基石,aiTSphere提供标准API,深度集成CAT系统,赋能用户开发场景化应用。本次aiTSphere的发布将为工业智能化提供关键支撑,以“安全、高效、智能”为核心目标,推动装备制造领域的技术升级——通过全域感知实现设备风险精准防控,借助实时决策提升产品研发效率,依托闭环控制优化资源配置,最终助力企业构建可持续的竞争力。

    来源:瑞风协同rainfe

    围观 20
    评论 0
    路径: /content/2025/100591861.html
    链接: 视图
    角色: editor
    winniewei的头像
    winniewei

    兼具更宽SOA范围和更低导通电阻,被全球知名云平台企业认证为推荐器件

    全球知名半导体制造商ROHM(总部位于日本京都市)今日宣布,开发出100V耐压的功率MOSFET*1RY7P250BM”,是AI服务器的48V电源热插拔电路*2以及需要电池保护的工业设备电源等应用的理想之选。

    Presspicture_DFN8080-LVMOS+EcoMOS.jpg

    RY7P250BM8×8mm尺寸的MOSFET,预计该尺寸产品未来需求将不断增长,可以轻松替代现有产品。另外,新产品同时实现了更宽SOA范围*3(条件:VDS=48VPw1ms/10ms)和更低导通电阻(RDS(on)*4,由此既可确保热插拔(电源启动)工作时的更高产品可靠性,又能优化电源效率,降低功耗并减少发热量。

    为了兼顾服务器的稳定运行和节能,热插拔电路必须具有较宽的SOA范围,以承受大电流负载。特别是AI服务器的热插拔电路,与传统服务器相比需要更宽的SOA范围。RY7P250BMSOA在脉宽10ms时可达16A1ms时也可达50A,实现业界超优性能,能够应对以往MOSFET难以支持的高负载应用。

    RY7P250BM是具有业界超宽SOA范围的MOSFET,并且实现了更低导通电阻,从而大幅降低了通电时的功率损耗和发热量。具有宽SOA范围的普通8×8mm尺寸100V耐压MOSFET的导通电阻绝大多数约为2.28mΩ,而RY7P250BM的导通电阻则降低了约18%——仅有1.86mΩ(条件:VGS=10VID=50ATj=25)。这种低导通电阻有助于提升服务器电源的效率、减轻冷却负荷并降低电力成本。

    2.jpg

    与此同时,RY7P250BM还被全球知名云平台企业认证为推荐器件,预计未来将在AI服务器领域得到更广泛的应用。在注重可靠性与节能的服务器领域中,RY7P250BM更宽SOA范围与更低导通电阻的平衡在云应用中得到了高度好评。

    新产品已经暂以月产100万个的规模投入量产(样品价格800日元/个,不含税)。前道工序的生产基地为ROHM Co., Ltd.(日本滋贺工厂),后道工序的生产基地为OSAT(泰国)。另外,新产品已经开始通过电商进行销售,通过电商平台均可购买。

    未来,ROHM将继续扩大适用于服务器和工业设备48V电源的产品阵容,通过提供效率高且可靠性高的解决方案,为建设可持续ICT基础设施和节能贡献力量。

    <开发背景>

    随着AI技术的飞速发展,数据中心的负载急剧增加,服务器功耗也逐年攀升。特别是随着配备生成式AI和高性能GPU的服务器日益普及,如何兼顾进一步提升电力效率和支持大电流这两个相互冲突的需求,一直是个难题。在此背景下,相较传统12V电源系统具有更高转换效率的48V电源系统正在加速扩大应用。另外,在服务器运行状态下实现模块更换的热插拔电路中,需要兼具更宽SOA范围和更低导通电阻的MOSFET,以防止浪涌电流*5和过载时造成损坏。新产品“RY7P250BM”在8×8mm尺寸中同时具备业界超宽SOA范围和超低导通电阻,有助于降低数据中心的功率损耗、减轻冷却负荷,从而提升服务器的可靠性并实现节能。

    <产品主要特性>

    3.jpg

    <应用示例>

    ・AI(人工智能)服务器和数据中心的48V系统电源热插拔电路

    ・工业设备48V系统电源(叉车、电动工具、机器人、风扇电机等)

    ・AGV(自动导引车)等电池驱动的工业设备

    ・UPS、应急电源系统(电池备份单元)

    <电商销售信息>

    发售时间:2025年5月起

    新产品在其他电商平台也将逐步发售。

    产品型号:RY7P250BM

    <关于EcoMOS™品牌>

    EcoMOS™是ROHM开发的Si功率MOSFET品牌,非常适用于功率元器件领域对节能要求高的应用。

    EcoMOS™产品阵容丰富,已被广泛用于家用电器、工业设备和车载等领域。客户可根据应用需求,通过噪声性能和开关性能等各种参数从产品阵容中选择产品。

    4.png

    EcoMOS™ROHM Co., Ltd.的商标或注册商标。

    <术语解说>

    *1)功率MOSFET

    适用于功率转换和开关应用的一种MOSFET。目前,通过给栅极施加相对于源极的正电压而导通的Nch MOSFET是主流产品,相比Pch MOSFET,具有导通电阻小、效率高的特点。因其可实现低损耗和高速开关而被广泛用于电源电路、电机驱动电路和逆变器等应用。

    5.jpg

    *2)热插拔电路

    可在设备电源运转状态下实现元器件插入或拆卸的、支持热插拔功能的整个电路。由MOSFET、保护元件和接插件等组成,负责抑制元器件插入时产生的浪涌电流并提供过流保护,从而确保系统和所连接元器件的安全工作。

    *3)SOA(Safe Operating Area)范围

    元器件不损坏且可安全工作的电压和电流范围。超出该安全工作区工作可能会导致热失控或损坏,特别是在会发生浪涌电流和过电流的应用中,需要考虑SOA范围。

    *4)导通电阻(RDS(on)

    MOSFET工作(导通)时漏极与源极间的电阻值。该值越小,工作时的损耗(功率损耗)越少。

    *5)浪涌电流(Inrush Current)

    在电子设备接通电源时,瞬间流过的超过额定电流值的大电流。因其会给电源电路中的元器件造成负荷,所以通过控制浪涌电流,可防止设备损坏并提高系统稳定性。

    【关于罗姆(ROHM)】

    罗姆(ROHM)成立于1958年,由起初的主要产品-电阻器的生产开始,历经半个多世纪的发展,已成为世界知名的半导体厂商。罗姆的企业理念是:“我们始终将产品质量放在第一位。无论遇到多大的困难,都将为国内外用户源源不断地提供大量优质产品,并为文化的进步与提高作出贡献”。

    罗姆的生产、销售、研发网络分布于世界各地。产品涉及多个领域,其中包括IC、分立式元器件、光学元器件、无源元器件、功率元器件、模块等。在世界电子行业中,罗姆的众多高品质产品得到了市场的许可和赞许,成为系统IC和先进半导体技术方面的主导企业。

    【关于罗姆(ROHM)在中国的业务发展】

    销售网点为了迅速且准确应对不断扩大的中国市场的要求,罗姆在中国构建了与总部同样的集开发、销售、制造于一体的垂直整合体制。作为罗姆的特色,积极开展“密切贴近客户”的销售活动,力求向客户提供周到的服务。目前在中国共设有20处销售网点,其中包括上海、深圳、北京、大连、天津、青岛、南京、合肥、苏州、杭州、宁波、西安、武汉、东莞、广州、厦门、珠海、重庆、香港、台湾。并且,正在逐步扩大分销网络。

    技术中心在上海和深圳设有技术中心和QA中心,在北京设有华北技术中心,提供技术和品质支持。技术中心配备精通各类市场的开发和设计支持人员,可以从软件到硬件以综合解决方案的形式,针对客户需求进行技术提案。并且,当产品发生不良情况时,QA中心会在24小时以内对申诉做出答复。

    生产基地1993年在天津(罗姆半导体(中国)有限公司)和大连(罗姆电子大连有限公司)分别建立了生产工厂。在天津进行二极管、LED、激光二极管、LED显示器和光学传感器的生产,在大连进行电源模块、热敏打印头、接触式图像传感器、光学传感器的生产,作为罗姆的主力生产基地,源源不断地向中国国内外提供高品质产品。

    社会贡献罗姆还致力于与国内外众多研究机关和企业加强合作,积极推进产学研联合的研发活动。2006年与清华大学签订了产学联合框架协议,积极地展开关于电子元器件先进技术开发的产学联合。2008年,在清华大学内捐资建设“清华-罗姆电子工程馆”,并已于2011年4月竣工。2012年,在清华大学设立了“清华-罗姆联合研究中心”,从事光学元器件、通信广播、生物芯片、SiC功率器件应用、非挥发处理器芯片、传感器和传感器网络技术(结构设施健康监测)、人工智能(机器健康检测)等联合研究项目。除清华大学之外,罗姆还与国内多家知名高校进行产学合作,不断结出丰硕成果。

    罗姆将以长年不断积累起来的技术力量和高品质以及可靠性为基础,通过集开发、生产、销售为一体的扎实的技术支持、客户服务体制,与客户构筑坚实的合作关系,作为扎根中国的企业,为提高客户产品实力、客户业务发展以及中国的节能环保事业做出积极贡献。

    围观 30
    评论 0
    路径: /content/2025/100591859.html
    链接: 视图
    角色: editor