All Node List by Editor

winniewei的头像
winniewei

基于先进的 NVIDIA 网络、NVIDIA 全栈 AI 软件和存储技术,可将集群中 Grace Blackwell 超级芯片的数量扩展至数万个,通过 NVIDIA NVLink可将多达 576 Blackwell GPU 连成一个整体,由NVIDIA 系统专家加速即时 AI 基础设施的部署

1.png

美国加利福尼亚州圣何塞—— GTC ——太平洋时间 2024 3 18 ——  NVIDIA 于今日发布新一代 AI 超级计算机 —— 搭载 NVIDIA GB200 Grace Blackwell 超级芯片的 NVIDIA DGX SuperPOD™。这台 AI 超级计算机可以用于处理万亿参数模型,能够保证超大规模生成式 AI 训练和推理工作负载的持续运行。

全新 DGX SuperPOD 采用新型高效液冷机架级扩展架构,基于 NVIDIA DGX™ GB200 系统构建而成,在 FP4 精度下可提供 11.5 exaflops 的 AI 超级计算性能和 240 TB 的快速显存,且可通过增加机架来扩展性能。

每个 DGX GB200 系统搭载 36 个 NVIDIA GB200 超级芯片,共包含 36 个 NVIDIA Grace CPU 和 72 个 NVIDIA Blackwell GPU。这些超级芯片通过第五代 NVIDIA NVLink® 连接成一台超级计算机。与 NVIDIA H100 Tensor Core GPU 相比,GB200 超级芯片在大语言模型推理工作负载方面的性能提升了高达 30 倍。

NVIDIA 创始人兼首席执行官黄仁勋表示: “NVIDIA DGX AI 超级计算机是推进 AI 产业变革的工厂。新一代 DGX SuperPOD 集 NVIDIA 加速计算、网络和软件方面的最新进展于一体,能够帮助每一个企业、行业和国家完善并生成自己的 AI。”

Grace Blackwell 架构的 DGX SuperPOD 由 8 个或以上的 DGX GB200 系统构建而成,这些系统通过 NVIDIA Quantum InfiniBand 网络连接,可扩展到数万个 GB200 超级芯片。用户可通过 NVLink 连接 8 个 DGX GB200 系统中的 576 块 Blackwell GPU,从而获得海量共享显存空间,来赋能下一代 AI 模型。

面向生成式 AI 时代的全新机架级扩展的 DGX SuperPOD 架构

采用 DGX GB200 系统构建而成的全新 DGX SuperPOD 采用了统一的计算网络。除第五代 NVIDIA NVLink 网络外,还包括 NVIDIA BlueField®-3 DPU,并将支持同为今日发布的 NVIDIA Quantum-X800 InfiniBand 网络。这个架构可为计算平台中的每块 GPU 提供高达每秒 1800 GB 的带宽。

另外,第四代 NVIDIA 可扩展分层聚合和规约协议(SHARP)™技术可提供 14.4 teraflops 的网络计算能力,与上一代产品相比,新一代 DGX SuperPOD 架构的网络计算能力提高了 4 倍。

统包式架构搭配先进的软件,实现前所未有的正常运行时间

全新 DGX SuperPOD 是一台完整的数据中心级 AI 超级计算机,在与 NVIDIA 认证合作伙伴提供的高性能存储集成后,能够满足生成式 AI 工作负载的需求。每台超级计算机都在出厂前完成了搭建、布线和测试,从而大大加快了在用户数据中心的部署速度。

Grace Blackwell 架构的 DGX SuperPOD 具有智能预测管理功能,能够持续监控软硬件中的数千个数据点,通过预测并拦截导致停机和低效的根源以节省时间、能耗和计算成本。

即使没有系统管理员在场,该软件也能识别需要重点关注的领域并制定维护计划,灵活调整计算资源,通过自动保存和恢复作业来防止停机。

如果软件检测到需要更换组件,该集群将激活备用容量以确保工作能够及时完成。为任何必要的硬件更换做好安排,以免出现计划之外的停机。

NVIDIA DGX B200 系统推动各行各业 AI 超级计算发展

NVIDIA 还发布了一款统一用于 AI 模型训练、微调和推理的通用 AI 超级计算平台 NVIDIA DGX B200 系统

采用风冷传统机架式设计的 DGX 已被全球各行各业数千家企业广泛采用,DGX B200 是 DGX 系列的第六代产品。采用 Blackwell 架构的全新 DGX B200 系统包含 8 个 NVIDIA B200 Tensor Core GPU 和 2 个第五代英特尔®至强®处理器。用户还可以使用 DGX B200 系统构建 DGX SuperPOD,打造能够帮助大型开发团队运行多种不同作业的 AI 卓越中心。

DGX B200 系统凭借全新 Blackwell 架构中的 FP4 精度特性,可提供高达 144 petaflops 的 AI 性能、1.4TB 海量的 GPU 显存和 64TB/s 的显存带宽,从而使得该系统的万亿参数模型实时推理速度比上一代产品提升了 15 倍。

DGX B200 系统包含带有 8 个 NVIDIA ConnectX™-7 网卡和 2 个 BlueField-3 DPU 的高性能网络,每个连接的带宽高达 400 Gb/s,可通过 NVIDIA Quantum-2 InfiniBandNVIDIA Spectrum™-X 以太网网络平台支持更高的 AI 性能。

软件和专家为扩大生产级 AI 的规模提供支持

所有 NVIDIA DGX 平台均包含用于企业级开发和部署的 NVIDIA AI Enterprise 软件。DGX 用户可以通过使用该软件平台中的预训练的 NVIDIA 基础模型、框架、工具套件和全新 NVIDIA NIM 微服务来加速他们的工作。

NVIDIA DGX 专家与部分获得 NVIDIA DGX 平台支持认证的合作伙伴将在每个部署环节为用户提供帮助,以便其迅速实现 AI 投产。在系统投入运行后,DGX 专家还将继续协助用户优化其 AI 管线和基础设施。

供应情况

NVIDIA 全球合作伙伴预计将在今年晚些时候提供基于 DGX GB200 和 DGX B200 系统构建而成的 NVIDIA DGX SuperPOD。

更多信息,请观看 GTC 主题演讲回放或在 3 月 21 日前参加由 NVIDIA 和行业领导者带来的会议。

关于 NVIDIA
自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算基础设施公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问https://nvidianews.nvidia.com/

围观 165
评论 0
路径: /content/2024/100579269.html
链接: 视图
角色: editor
winniewei的头像
winniewei

1.jpg

  • 全新 Blackwell GPU、NVLink 和可靠性技术赋能万亿参数规模的 AI 模型

  • 全新 Tensor Core 与 TensorRT- LLM 编译器将 LLM 推理运行成本和能耗降低多达 25 倍

  • 全新加速器助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计和量子计算领域实现突破

  • 各大云提供商、服务器制造商和头部 AI 企业纷纷采用

美国加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2024 年 3 月 18 日 —— NVIDIA 于今日宣布推出 NVIDIA Blackwell 平台以赋能计算新时代。该平台可使世界各地的机构都能够在万亿参数的大语言模型(LLM)上构建和运行实时生成式 AI,其成本和能耗较上一代产品降低多达 25 倍。

Blackwell GPU 架构搭载六项变革性的加速计算技术,这些技术将助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子计算和生成式 AI 等领域实现突破,这些都是 NVIDIA 眼中的新兴行业机遇。

NVIDIA 创始人兼首席执行官黄仁勋表示: “三十年来,我们一直深耕加速计算领域,力求实现像深度学习和 AI 这样的变革性突破。生成式 AI 是我们这个时代的决定性技术,Blackwell GPU 是推动新一轮工业革命的引擎。通过与全球最具活力的企业合作,我们将实现 AI 赋能各行各业的承诺。”

许多企业都在计划采用 Blackwell,其中包括亚马逊云科技、戴尔科技、谷歌、Meta、微软、OpenAI、Oracle、特斯拉和 xAI。

Alphabet 和谷歌首席执行官 Sundar Pichai 表示: “通过扩展谷歌搜索和 Gmail 等服务以服务于数十亿用户,我们对于如何管理计算基础设施有了更加深入的了解。随着公司业务进入 AI 平台转型期,我们将继续为自身产品和服务以及云客户扩大基础设施投资。我们有幸与 NVIDIA 建立了长期合作伙伴关系,并期待着将 Blackwell GPU 的突破性功能带给我们的云客户以及包括 Google DeepMind 在内的谷歌团队,以加速未来的探索进程。”

亚马逊总裁兼首席执行官 Andy Jassy 表示: “我们与 NVIDIA 的深度合作可以追溯到 13 年前,当时我们在 AWS 上推出了全球首个 GPU 云实例。如今,我们在云端提供了最为广泛的 GPU 解决方案,以支持全球那些技术上最先进的加速工作负载。正因如此,NVIDIA Blackwell GPU 能够在 AWS 上运行得如此出色,NVIDIA 也选择与 AWS 共同开发 Project Ceiba,将 NVIDIA 新一代 Grace Blackwell 超级芯片与 AWS Nitro System 的高级虚拟化和超快速的 Elastic Fabric Adapter 网络结合,以用于 NVIDIA 自身的 AI 研发。通过 AWS 与 NVIDIA 工程师的共同努力,我们将持续创新,使 AWS 成为每一个想要在云端运行 NVIDIA GPU 的用户的最佳选择。”

戴尔科技董事会主席兼首席执行官 Michael Dell 表示: “生成式 AI 对于创建更智能、更可靠和更高效的系统至关重要。戴尔科技与 NVIDIA 将携手塑造未来科技。随着 Blackwell 的发布, 我们将继续为用户提供新一代加速产品和服务,以提供推动跨行业创新所需的工具。”

谷歌 DeepMind 联合创始人兼首席执行官 Demis Hassabis 表示:“AI 的变革潜力令人难以置信,它将帮助我们解决世界上那些最重要的科学问题。Blackwell 突破性的技术性能将提供所需的关键算力,从而帮助那些世界上最聪明的大脑绘制新的科学蓝图。”

Meta 公司创始人兼首席执行官 Mark Zuckerberg 表示: “从我们的大语言模型到内容推荐、广告和安全系统,AI 已经在赋能一切,而且 AI 在未来将会日益重要。我们期待通过 NVIDIA Blackwell 帮助训练我们的开源 Llama 模型,打造下一代 Meta AI 和消费产品。”

微软执行董事长兼首席执行官 Satya Nadella 表示: “我们致力于为客户提供最先进的基础设施,以赋能其 AI 工作负载。一直以来,我们致力于为云端优化 NVIDIA GPU,通过在我们的全球数据中心采用 GB200 Grace Blackwell 处理器,我们得以在这一进程中再进一步,助力世界各地的组织实现 AI 落地。”

OpenAI 首席执行官 Sam Altman 表示: “Blackwell 实现了巨大的性能飞跃,并将加速我们提供尖端模型的能力。我们很高兴能继续与 NVIDIA 合作,共同提升 AI 计算。”

Oracle 董事长兼首席技术官 Larry Ellison 表示: “Oracle 与 NVIDIA 的紧密合作将推动 AI、机器学习和数据分析领域实现质和量的突破。为了让用户能够获取更多具有可操作性的洞察,正需要像 Blackwell 这样专为加速计算和生成式 AI 而打造的、更强大的引擎。”

特斯拉及 xAI 首席执行官 Elon Musk 表示:当下的 AI 领域,NVIDIA硬件无可比拟。”

新架构以纪念 David Harold Blackwell 命名,他不仅是一位专门研究博弈论和统计学的数学家,也是第一位入选美国国家科学院的黑人学者。这一新架构是继两年前推出的 NVIDIA Hopper™ 架构以来的全新架构。

Blackwell 的多项创新技术为加速计算和生成式 AI 提供助力

凭借六项变革性的技术,Blackwell 能够在拥有高达 10 万亿参数的模型上实现 AI 训练和实时 LLM 推理,这些技术包括:

  • 全球最强大的芯片:Blackwell 架构 GPU 具有 2080 亿个晶体管,采用专门定制的双倍光刻极限尺寸 4NP TSMC 工艺制造,通过 10 TB/s 的片间互联,将 GPU 裸片连接成一块统一的 GPU。

  • 第二代 Transformer 引擎:得益于全新微张量缩放支持,以及集成于 NVIDIA TensorRT™-LLM 和 NeMo Megatron 框架中的 NVIDIA 先进动态范围管理算法,Blackwell 将在新型 4 位浮点 AI 推理能力下实现算力和模型大小翻倍。

  • 第五代 NVLink:为了提升万亿级参数模型和混合专家 AI 模型的性能,最新一代 NVIDIA NVLink® 为每块 GPU 提供突破性的 1.8TB/s 双向吞吐量,确保多达 576 块 GPU 之间的无缝高速通信,满足了当今最复杂 LLM 的需求。

  • RAS 引擎:采用 Blackwell 架构的 GPU 包含一个用于保障可靠性、可用性和可维护性的专用引擎。此外,Blackwell 架构还增加了多项芯片级功能,能够利用 AI 预防性维护来运行诊断并预测可靠性相关的问题。这将最大程度地延长系统正常运行时间,提高大规模 AI 部署的弹性,使其能够连续不间断运行数周乃至数月,同时降低运营成本。

  • 安全 AI:先进的机密计算功能可以在不影响性能的情况下保护 AI 模型和客户数据,并且支持全新本地接口加密协议,这对于医疗、金融服务等高度重视隐私问题的行业至关重要。

  • 解压缩引擎:专用的解压缩引擎支持最新格式,通过加速数据库查询提供极其强大的数据分析和数据科学性能。未来几年,每年需要企业花费数百亿美元的数据处理将越来越多地由 GPU 加速。

一个超大规模的超级芯片

NVIDIA GB200 Grace Blackwell 超级芯片通过 900GB/s 超低功耗的片间互联,将两个 NVIDIA B200 Tensor Core GPU 与 NVIDIA Grace CPU 相连。

为了实现超高的 AI 性能,搭载 GB200 的系统可与同在今天发布的 NVIDIA Quantum-X800 InfiniBand 和 Spectrum™-X800 以太网平台连接。这两个平台均可提供速度高达 800Gb/s 的高性能网络。

GB200 是 NVIDIA GB200 NVL72 的关键组件。NVIDIA GB200 NVL72 是一套多节点液冷机架级扩展系统,适用于高度计算密集型的工作负载。它将 36 个 Grace Blackwell 超级芯片组合在一起,其中包含通过第五代 NVLink 相互连接的 72 个 Blackwell GPU 和 36 个 Grace CPU。此外,GB200 NVL72 还内置 NVIDIA BlueField®-3 数据处理器,可在超大规模 AI 云中实现云网络加速、组合式存储、零信任安全和 GPU 计算弹性。对于LLM 推理工作负载,相较于同样数量的 NVIDIA H100 Tensor Core GPU,GB200 NVL72 最高可提供 30 倍的性能提升以及多达 25 倍的成本和能耗降低。

该平台可作为一个单 GPU,具有 1.4 exaflops 的 AI 性能和 30TB 的快速内存,是组成最新一代 DGX SuperPOD 的基础模块。

NVIDIA 提供的 HGX B200 是一个通过 NVLink 连接 8 块 B200 GPU 的服务器主板,支持基于 x86 的生成式 AI 平台。基于 NVIDIA Quantum-2 InfiniBand 和 Spectrum-X 以太网网络平台,HGX B200 支持高达 400Gb/s 的网络速度。

Blackwell 的全球合作伙伴网络

合作伙伴将从今年晚些时候开始供应采用 Blackwell 架构的产品。

AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure 将成为首批提供 Blackwell 驱动实例的云服务提供商。同时 NVIDIA 云合作伙伴计划的公司 Applied Digital、CoreWeave、Crusoe、IBM Cloud 和 Lambda 也将提供上述服务。Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle EU Sovereign Cloud、Oracle US, UK, and Australian Government Clouds、Scaleway、新加坡电信、Northern Data Group 的 Taiga Cloud、Yotta Data Services 的 Shakti Cloud 和 YTL Power International 等主权 AI 云也将提供基于 Blackwell 架构的云服务和基础设施。

GB200 还将通过 NVIDIA DGX™ Cloud提供,NVIDIA DGX™ Cloud 是一个与领先的云服务提供商共同设计的 AI 平台,可为企业开发人员提供专门的基础设施和软件访问权限,使他们能够构建并部署先进的生成式 AI 模型。AWS、Google Cloud 和 Oracle Cloud Infrastructure 计划在今年晚些时候托管采用 NVIDIA Grace Blackwell 的新实例。

Cisco、戴尔科技、慧与、联想和 Supermicro 预计将提供基于 Blackwell 产品打造的各种服务器。Aivres、永擎电子、华硕、Eviden、Foxconn、技嘉、Inventec、和硕、QCT、Wistron、纬颖和 ZT Systems 也将提供基于 Blackwell 的服务器。

此外,越来越多的软件制造商网络,包括工程仿真领域的全球领导者 Ansys、Cadence 和 Synopsys,将使用基于 Blackwell 的处理器来加速其用于设计和仿真电气、机械和制造系统及零件的软件。他们的客户可以更低成本、更高能效地使用生成式 AI 和加速计算,来加速产品上市。

NVIDIA 软件支持

Blackwell 产品组合由生产级 AI 端到端操作系统 NVIDIA AI Enterprise 支持。NVIDIA AI Enterprise 中包含同日发布的 NVIDIA NIM™ 推理微服务以及 AI 框架、程序库和工具,企业可以部署在由NVIDIA 提供加速的云、数据中心及工作站上。

了解关于 NVIDIA Blackwell 平台的更多信息,请观看 GTC 主题演讲回放并注册 GTC 以参加由 NVIDIA 和行业领导者带来的会议。本届 GTC 将持续举办至 3 月 21 日。

关于 NVIDIA
自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算基础设施公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/

围观 165
评论 0
路径: /content/2024/100579267.html
链接: 视图
角色: editor
winniewei的头像
winniewei

作为人力资源领域的领军人物,Yockelson将以其超过25年的丰富经验在全球推动NetApp文化与增长的新篇章

智能数据基础架构公司NetApp (NASDAQ:NTAP)今天宣布,Alessandra Yockelson已加入公司担任首席人力资源官,并将向首席执行官George Kurian汇报。Alessandra将负责领导人才和组织战略的方方面面,包括人才发展和成长、绩效管理、团队参与、招聘,多元化、公平、包容和归属感(DEIB)以及薪酬和福利。Alessandra加入NetApp之前曾就职于Pure Storage,自2021年8月起担任首席人力资源官,负责领导该公司的组织变革工作,推动实现了全球业绩增长。

NetApp首席执行官George Kurian表示:“我欣然欢迎Alessandra加入NetApp,我们将继续革新公司和企业文化,以加速增长并为我们的员工、客户、合作伙伴和股东创造价值。我们一直是一个既能吸引又能培养顶尖人才的组织,Alessandra是这一传统的延续,她将在下一阶段的人才战略中带领我们前进。”

Alessandra拥有巴西瓦加斯基金会圣保罗工商管理学院博士学位,在领导全球人才组织、推动卓越运营以及培养绩效和责任文化方面拥有数十年的经验和专业知识。在加入Pure Storage担任首席人力资源官之前,Alessandra曾在Hewlett Packard Enterprise、Diageo和Philips担任过各种人才领导职务。她曾领导全球业务和文化转型,推动大型跨国品牌的盈利性增长,是人力资本管理领域公认的领导者。Alessandra目前担任Vista Equity Partners投资组合公司iCIMS的董事会成员,为公司下一阶段的发展提供战略洞察和建议,支持公司的持续创新和卓越运营。

NetApp首席人力资源官Alessandra Yockelson表示:“我很高兴在这个充满创新和机遇的激动人心的时刻加入NetApp。NetApp在技术领先、客户至上和协作文化方面享有盛誉。我期待着与NetApp才华横溢的多元化团队合作,使我们的员工能够在充满活力的市场中茁壮成长。”

NetApp致力于吸引、培养和留住顶尖人才,并培养创新、包容和卓越的企业文化。公司最近被《新闻周刊》评选为“全球最值得信赖的公司”和“美国最环保的公司”,同时获评《硅谷商业杂志》“50大企业慈善机构”称号。

关于NetApp

NetApp是一家智能数据基础架构公司,将统一数据存储、集成数据服务和CloudOps解决方案相结合,让充满颠覆变化的世界为每个客户带来机遇。NetApp创建无孤岛的基础架构,然后运用可观察性和人工智能来实现业界最佳的数据管理。作为唯一原生嵌入全球最大云端的企业级存储服务,我们的数据存储提供无缝的灵活性。此外,我们的数据服务具有卓越的网络弹性、治理和应用程序敏捷性,为用户创造数据优势。我们的CloudOp解决方案通过可观察性和人工智能来持续优化性能和效率。无论数据类型、工作负载或环境如何,您都可以通过NetApp改造数据基础架构以拓展业务可能性。如需了解更多信息,请访问www.netapp.com或在XLinkedInFacebookInstagram上关注我们。

NETAPP、NETAPP徽标以及 www.netapp.com/TM上列出的标记是NetApp, Inc.的商标。其他公司和产品名称可能是其各自所有者的商标。

免责声明:本公告之原文版本乃官方授权版本。译文仅供方便了解之用,烦请参照原文,原文版本乃唯一具法律效力之版本。

在 businesswire.com 上查看源版本新闻稿: https://www.businesswire.com/news/home/20240318743454/zh-CN/


围观 23
评论 0
路径: /content/2024/100579266.html
链接: 视图
角色: editor
winniewei的头像
winniewei

采用小型封装,安装面积比以往产品少72%,有助于消费电子和工业设备电源单元的小型化

全球知名半导体制造商ROHM(总部位于京都市)面向冰箱、洗衣机、PLC、逆变器等消费电子和工业设备应用,开发出4款小型DC-DC转换器IC“BD9E105FP4-Z/ BD9E202FP4-Z / BD9E304FP4-LBZ / BD9A201FP4-LBZ”。另外,ROHM还计划推出最大输出电流2A、开关频率350kHz的BD9E203FP4-Z,进一步扩大产品阵容。

PressPicture_DC-DC_TSOT23-Package.jpg

近年来,在消费电子和工业设备应用领域,随着产品功能的增加,对节省电路板空间的要求越来越严格,小型DC-DC转换器IC的使用率也与日俱增。另外,降低待机功耗已成为亟需解决的一大课题,这就要求DC-DC转换器IC在低功率(轻负载)时实现更高效率。为了满足这些市场需求,ROHM开发出比现有SOP-J8封装产品更小、效率更高的产品。

新产品的输出电流为1A~3A,并且全部采用小型SOT23封装尺寸(2.8mm×2.9mm)。与普通的SOP-J8(JEDEC标准:相当于SOIC8)封装(4.9mm×6.0mm)产品相比,新产品安装面积减少约72%,非常有助于电源单元的小型化。此外,通过采用无线结构封装,还降低了导线阻抗(布线的电阻分量),实现了高效率工作。

不仅如此,“BD9E105FP4-Z / BD9E202FP4-Z / BD9E304FP4-LBZ”在轻负载模式下采用的是COT控制方式*1,与普通产品相比,轻负载时的效率更高,非常适用于需要降低待机功耗的应用。

新产品于20243月开始量产(样品价格:450日元/个,不含税)。另外,新产品已经开始通过电商进行销售,通过Ameya360电商平台均可购买。为了便于客户快速评估应用产品的设计,ROHM还提供评估板和各种支持工具。

2.png

未来,ROHM将继续致力于开发融入模拟设计技术优势的产品,为消费电子和工业设备应用的节能和小型化贡献力量。

<SOT23封装产品阵容>

3.jpg

<应用示例>

3.3V/5V/12V/24V电源电路应用

消费电子:

冰箱、洗衣机、空调等

工业设备:

PLCProgramable Logic Controller逆变器、AC伺服等

4.jpg

*2:杂波 *3:过冲防止功能 *4:ESD *5:EMI

5.png

<电商销售信息>

开始销售时间:2024年3月起逐步发售

5.png

电商平台:Ameya360

新产品在其他电商平台也将逐步发售。

销售产品:

6.jpg

7.jpg

<各种支持工具>

Calculation Sheet可用于外部常数设计的应用电路计算工具。只要按说明设置值,即可确定满足所需特性的电路参数。

可通过ROHM官网各产品页面中的设计模型”入口下载。

BD9E105FP4-Z / BD9E304FP4-LBZ / BD9A201FP4-LBZ

ROHM Solution Simulator可在ROHM官网上运行的免费仿真工具。通过在技术规格书中提供的拓扑中更改外部常数即可轻松获得电源频率响应性能的优化解决方案。

BD9E105FP4-Z / BD9E202FP4-Z / BD9E304FP4-LBZ / BD9A201FP4-LBZ

*需要注册我的罗姆账号方可使用。

其他资源通过各产品页面还可以下载可用于电路仿真的SPICE模型以及汇总了对热设计、电路设计及验证有用信息的应用指南


<术语解说>

*1COTConstant On Time恒定导通时间控制方式

一种使输出电压稳定的反馈电路控制方式。当反馈电压降至基准电压以下时,开关器件导通;当经过恒定导通时间后,开关器件自动关断。这种控制方式在轻负载时也能有效获得稳定输出。

*2)杂波(Spurious)

偏离本来所定频率的不必要的电波。

*3) 过冲防止功能

当电源IC的输出电流超过预期时,OCP(过电流保护)功能将会停止输出。从该停止状态恢复时,会产生瞬时过冲(输出电压过大),导致恢复变慢,因此抑制过冲可以加快恢复速度。

*4ESDElectro-Static Discharge静电放电

当带电物体之间接触时,会产生静电(浪涌)。这种静电(浪涌)会导致电路和设备发生误动作或损坏。

*5EMIElectromagnetic Interference:电磁干扰)

EMI是用来衡量对象产品的运行产生多少噪声、是否给外围IC和系统带来问题的指标。EMI特性好意味着产生的噪声很少。

【关于罗姆(ROHM)】

罗姆(ROHM)成立于1958年,由起初的主要产品-电阻器的生产开始,历经半个多世纪的发展,已成为世界知名的半导体厂商。罗姆的企业理念是:“我们始终将产品质量放在第一位。无论遇到多大的困难,都将为国内外用户源源不断地提供大量优质产品,并为文化的进步与提高作出贡献”。

罗姆的生产、销售、研发网络分布于世界各地。产品涉及多个领域,其中包括IC、分立式元器件、光学元器件、无源元器件、功率元器件、模块等。在世界电子行业中,罗姆的众多高品质产品得到了市场的许可和赞许,成为系统IC和先进半导体技术方面的主导企业。

【关于罗姆(ROHM)在中国的业务发展】

销售网点:起初于1974年成立了罗姆半导体香港有限公司。在1999年成立了罗姆半导体(上海)有限公司, 2006年成立了罗姆半导体(深圳)有限公司,2018年成立了罗姆半导体(北京)有限公司。为了迅速且准确应对不断扩大的中国市场的要求,罗姆在中国构建了与总部同样的集开发、销售、制造于一体的垂直整合体制。作为罗姆的特色,积极开展“密切贴近客户”的销售活动,力求向客户提供周到的服务。目前在中国共设有20处销售网点,其中包括香港、上海、深圳、北京这4家销售公司以及其16家分公司(分公司:大连、天津、青岛、南京、合肥、苏州、杭州、宁波、西安、武汉、东莞、广州、厦门、珠海、重庆、福州)。并且,正在逐步扩大分销网络。

技术中心:在上海和深圳设有技术中心和QA中心,在北京设有华北技术中心,提供技术和品质支持。技术中心配备精通各类市场的开发和设计支持人员,可以从软件到硬件以综合解决方案的形式,针对客户需求进行技术提案。并且,当产品发生不良情况时,QA中心会在24小时以内对申诉做出答复。

生产基地:1993年在天津(罗姆半导体(中国)有限公司)和大连(罗姆电子大连有限公司)分别建立了生产工厂。在天津进行二极管、LED、激光二极管、LED显示器和光学传感器的生产,在大连进行电源模块、热敏打印头、接触式图像传感器、光学传感器的生产,作为罗姆的主力生产基地,源源不断地向中国国内外提供高品质产品。

社会贡献:罗姆还致力于与国内外众多研究机关和企业加强合作,积极推进产学研联合的研发活动。2006年与清华大学签订了产学联合框架协议,积极地展开关于电子元器件先进技术开发的产学联合。2008年,在清华大学内捐资建设“清华-罗姆电子工程馆”,并已于2011年4月竣工。2012年,在清华大学设立了“清华-罗姆联合研究中心”,从事光学元器件、通信广播、生物芯片、SiC功率器件应用、非挥发处理器芯片、传感器和传感器网络技术(结构设施健康监测)、人工智能(机器健康检测)等联合研究项目。除清华大学之外,罗姆还与国内多家知名高校进行产学合作,不断结出丰硕成果。

罗姆将以长年不断积累起来的技术力量和高品质以及可靠性为基础,通过集开发、生产、销售为一体的扎实的技术支持、客户服务体制,与客户构筑坚实的合作关系,作为扎根中国的企业,为提高客户产品实力、客户业务发展以及中国的节能环保事业做出积极贡献。

围观 69
评论 0
路径: /content/2024/100579265.html
链接: 视图
角色: editor
winniewei的头像
winniewei

半导体制造业提供温度管理解决方案的领导者ERS electronic推出了Luminex 产品线的首台机器,该机器采用尖端的光学拆键合技术,适用于最大600 x 600 毫米的面板和不同尺寸的晶圆。

Luminex_Photothermal.jpg

Luminex: The semi-automatic machine is the first of ERS’s Luminex product line, featuring its PhotoThermal debonding technology.

光学拆键合是一种无外力的拆键合方法:通过使用精准可控的闪光灯将载体与基板分离。光学拆键合工艺的关键部件是带有光吸收层(CLAL)的玻璃载板,它能将灯的光能转化为热能,从而顺利实现分离。有了 CLAL,就不再需要对载板进行涂层和清洁,从而减少了工艺步骤以及相关复杂程序和成本,与传统的激光拆键合相比,可为用户节省高达 30% 的运营成本。

ERS 半自动设备属于 Luminex 产品系列的第一台设备。目前,ERS 正在开发用于 300 毫米晶圆的全自动设备,该设备将于本年第二季度末发布。作为综合产品线的一部分,公司将提供带有多个模块化附加组件的自动设备,进一步提高产品质量和产量。

"ERS公司副总裁兼APEqS业务部负责人Debbie-Claire Sanchez表示:"光学拆键合是半导体制造领域的一次重大飞跃。" Luminex 生产线的第一台机器是从事先进封装开发或新产品引进的研发团队的绝佳跳板,在此也诚邀各公司将样品寄给ERS进行测试。"

从四月份开始,这台半自动设备将分别配备在 ERS 中国上海和德国的实验室,用于测试客户的晶圆和面板样品以及样品演示。

关于ERS:

ERS electronic GmbH位于慕尼黑郊区的Germering,50多年来一直为半导体行业提供创新的温度管理解决方案。该公司以其快速、精确的基于空气冷却的温度卡盘系统赢得了卓越的声誉,其测试温度范围为 -65 °C 至 +550 °C,适用于分析、参数相关和制造针测。2008 年,ERS 将其专业技术扩展到先进封装市场。如今,在全球大多数半导体制造商和OSAT的生产车间都能看到他们的全自动、手动拆键合和翘曲矫正系统。公司在解决扇出晶圆级封装制造过程中出现的复杂翘曲问题方面的能力得到了业界的广泛认可。

稿源:美通社

围观 54
评论 0
路径: /content/2024/100579262.html
链接: 视图
角色: editor
winniewei的头像
winniewei

今日,国内EDA技术领军企业芯华章与全球集成电路验证技术先锋啄木鸟半导体宣布达成独家战略合作伙伴关系。双方决定共同推进EDA在芯片验证与测试领域的技术合作,致力于为高可靠性处理器芯片,如基于RISC-V的车规芯片,提供完整、完备的验证与测试方案。

合作后,双方将打造完整的验证与测试,调试与诊断的技术闭环,为复杂的系统芯片提供从设计、验证到测试全链条的技术保障。

达摩院RISC-V与生态验证负责人梁中书表示:“啄木鸟半导体开发了业界第一款基于QED技术、专注于RISC-V CPU全自动验证的解决方案,我们非常高兴看到啄木鸟和芯华章的深度合作。希望透过结合芯华章的验证平台,提供更易用、更完备与高性能的完整RISC-V 验证解决方案,进一步推动RISC-V的发展。”

当前,芯片验证已经不仅仅用于硅前,同步提升硅后验证的质量和有效性,可以为任何集成电路公司带来成本和时间上的竞争优势。

啄木鸟半导体的硅前和硅后验证工具以一种系统性和可扩展的方式,用以提升芯片验证及测试的生产力和质量,且无需额外的专业知识或工程资源,不需要对IC设计实施流程或验证环境进行更改。通过自动转换现有的验证测试代码,可以显著增加覆盖范围,且错误变得更容易解决。

芯华章自成立以来,坚定不移地深耕数字验证领域,基于统一底层架构和数据库,成功研发出十余款自主验证工具及行业解决方案。这些工具和方案涵盖了逻辑仿真、静态与形式验证、智能场景验证、硬件仿真、硬件原型与系统调试等完整的全流程数字验证领域,并已拥有超过180件自主专利申请。

双方合作将基于啄木鸟QED(Quick Error Detection)方法学Acuity Formal,Acuity Compiler,Acuity Optimize等系列产品与芯华章全流程 EDA 验证平台的深度融合。QED验证方法学源自大规模并行计算系统,致力于自动、快速、准确、完备地检测出设计中的错误。这种方法结合了先进算法等多项前沿技术,能够迅速定位到复杂处理器设计中的问题,大大提高验证的效率和精确性,为整个芯片设计流程赋予高效和安全性。

啄木鸟半导体的Acuity Optimize产品与芯华章GalaxFV形式化验证产品具备巨大的合作潜力。针对客户的处理器设计,形式化完备的验证方式能够自动发现问题并确定原因和位置,在产品上市前捕捉到错误。更进一步,芯华章系统化的FusionVerify验证平台从架构、算法、数据、界面等融合了多种EDA验证工具,为啄木鸟半导体的处理器验证包提供高性能EDA计算的核心平台。

二者从接口、模型、云计算流程等多个方面的深度融合,共同构成了完整的处理器芯片自动化垂直验证方案。

啄木鸟半导体CEO陈志伟表示:“这次合作不仅仅是两家公司技术的结合,更是业界领先的技术和思维的融合。我们深信,双方在各自领域的领先竞争优势及互补性,将转化为这次独家合作的牢固基石,我们将一起为客户带来前所未有的验证与测试体验。”

芯华章科技董事长兼CEO王礼宾表示:“芯华章与啄木鸟半导体的全面合作是一个天时地利人和的绝佳契机。结合两家公司的技术和产品,我们相信这次合作将为客户带来更为完善、更为高效的验证与测试垂直解决方案,进一步加速高可靠性RISC-V SOC芯片在各领域的全面产业化进程。”

关于芯华章科技

芯华章聚焦EDA数字验证领域,打造从芯片到系统的敏捷验证解决方案,拥有超过180件自主研发专利申请。公司已成功打造十数款基于平台化、智能化、云化底层构架的商用级验证产品,可提供完整的数字验证全流程EDA工具解决方案。

关于啄木鸟半导体

由斯坦福校友创立的啄木鸟半导体专注于精准发现硅前和硅后问题,以提高产量并避免昂贵的芯片故障。其颠覆性解决方案将验证和校验提升到一个新的水平。其国际业务总部设在新加坡,并在中国上海、深圳、台湾新竹和美国德克萨斯州奥斯汀设有办事处。

来源:芯华章科技

围观 92
评论 0
路径: /content/2024/100579260.html
链接: 视图
角色: editor
winniewei的头像
winniewei

现在提供“MCU Motor Studio Ver.3.0”和新的“电机参数调整工具”

2024319——东芝电子元件及存储装置株式会社(“东芝”)今日宣布,推出全新 “MCU Motor Studio Ver.3.0”和“电机参数调整工具”,使得电机控制功能得到改善。全新版本的电机控制软件开发套件“MCU Motor Studio Ver.3.0”新增位置估算控制技术,用于磁场定向控制(FOC),与此同时,“Motor Tuning Studio Ver.1.0”则用于电机参数自动计算,两款工具将于今天开始提供。

1.jpg

FOC是一种高效的电机控制方法,但使用比例积分(PI)控制增益对电机驱动进行调整的复杂性成为了一个课题。PI控制通常应用于位置控制、速度控制和电流控制,产生的3组PI控制增益参数会彼此干扰,调整不容易。此外,MCU Motor Studio使用已知的电机参数来进行控制,但没有从电机中提取参数的功能。

东芝全新推出的位置估计控制法基于磁通观测器,无需使用PI控制进行位置估计,从而使电机评估时的调整更加容易。与传统的位置估计控制方法相比,这种新方法在高负载运行时可实现更高的稳定性。此外,采用这种新方法的MCU Motor Studio Ver.3.0也支持传统的位置控制方法。

我们还新开发了“Motor Tuning Studio Ver.1.0”,这是一种自动计算电机参数的工具。通过MCU Motor Studio和MCU Motor Tuning Studio相结合,使用户能够轻松获得初始电机参数并开始评估。Motor Tuning Studio可通过这里的东芝客户咨询表获得(联系我们)。

东芝正在推进碳中和和循环经济的实现,将继续扩大其用于FOC的微控制器和电机控制软件开发套件的产品线,以支持高效电机。

如需了解MCU Motor Studio的更多信息,请访问以下网址:

MCU Motor Studio

https://toshiba-semicon-storage.com/cn/semiconductor/product/microcontrollers/motor-studio.html

如需了解东芝微控制器的更多信息,请访问以下网址:

微控制器

https://toshiba-semicon-storage.com/cn/semiconductor/product/microcontro...

关于东芝电子元件及存储装置株式会社

东芝电子元件及存储装置株式会社是先进的半导体和存储解决方案的领先供应商,公司累积了半个多世纪的经验和创新,为客户和合作伙伴提供分立半导体、系统LSI和HDD领域的杰出解决方案。

公司22,200名员工遍布世界各地,致力于实现产品价值的最大化,东芝电子元件及存储装置株式会社十分注重与客户的密切协作,旨在促进价值共创,共同开拓新市场,公司现已拥有超过8,598亿日元(62亿美元)的年销售额,期待为世界各地的人们建设更美好的未来并做出贡献。

如需了解有关东芝电子元件及存储装置株式会社的更多信息,请访问以下网址:https://toshiba-semicon-storage.com

围观 28
评论 0
路径: /content/2024/100579257.html
链接: 视图
角色: editor
winniewei的头像
winniewei
  • NVIDIA Quantum-X800 InfiniBand 网络,打造性能最强大的 AI 专用基础设施

  • NVIDIA Spectrum-X800 以太网络,数据中心必备的优化 AI 网络

  • NVIDIA 软件实现了跨  Blackwell GPU、新交换机和 BlueField-3 SuperNIC 的分布式计算,大幅提升了 AI、数据处理、高性能计算和云工作负载的性能

1.png

美国加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2024 3 18 —— NVIDIA 发布专为大规模 AI 量身订制的全新网络交换机 - X800 系列。

NVIDIA Quantum-X800 InfiniBand 网络 NVIDIA Spectrum™-X800 以太网络是全球首批高达 800Gb/s 端到端吞吐量的网络平台,将计算和 AI 工作负载的网络性能提升到了一个新的水平,与其配套软件强强联手可进一步加速各种数据中心中的 AI、云、数据处理和高性能计算(HPC)应用,包括基于最新的 NVIDIA Blackwell 架构产品的数据中心。

NVIDIA 网络高级副总裁 Gilad Shainer 表示:“NVIDIA 网络平台是 AI 超级计算基础设施实现大规模可扩展的核心。基于 NVIDIA X800 交换机的端到端网络平台,使新型 AI 基础设施轻松运行万亿参数级生成式 AI 业务。”

Quantum InfiniBand Spectrum-X 以太网的早期用户包括微软 Azure Oracle Cloud Infrastructure Coreweave 等。

微软 Azure AI 基础设施副总裁 Nidhi Chappell 表示:“AI 是一个将数据转化为知识的强大工具,支撑这种转化的基础就是数据中心演进成为了高性能的 AI 引擎,这个演进又对网络基础设施提出了更大的需求。通过与 NVIDIA 网络解决方案的全新整合,微软 Azure云将持续构建我们的基础设施,推动 AI 云走向新的台阶。”

树立极致性能的新标杆

Quantum-X800 平台树立了 AI 专用基础设施极致性能的新标杆,该平台包含了 NVIDIA Quantum Q3400 交换机和 NVIDIA ConnectX-8 SuperNIC,二者互连达到了业界领先的端到端 800Gb/s 吞吐量,交换带宽容量较上一代产品提高了 5 倍,网络计算能力更是凭借 NVIDIA SHARP 技术(SHARPv4)提高了 9 倍,达到了 14.4Tflops

Spectrum-X800 平台为 AI 云和企业级基础设施带来优化的网络性能。借助 800Gb/s Spectrum SN5600 交换机和 NVIDIA BlueField-3 SuperNICSpectrum-X800 平台为多租户生成式 AI 云和大型企业级用户提供各种至关重要的先进功能。

Spectrum-X800 通过优化网络性能,加快 AI 工作负载的处理、分析和执行速度,进而缩短 AI 解决方案的开发、部署和上市时间。Spectrum-X800 专为多租户环境打造,实现了每个租户的 AI 工作负载的性能隔离,使业务性能能够持续保持在最佳状态,提升客户满意度和服务质量。

NVIDIA 软件助一臂之力

NVIDIA 提供面向万亿参数级 AI 模型性能优化的网络加速通信库、软件开发套件和管理软件等全套软件方案。

其中的 NVIDIA 集合通信库(NCCL)可将 GPU 的并行计算任务扩展到 Quantum-X800 网络,利用其基于 SHARPv4 的强大网络计算能力和对 FP8 的支持,为大模型训练和生成式 AI 提供超强的性能。

NVIDIA 的全栈软件方案带来了先进的可编程性,使数据中心网络变得更加灵活、可靠和灵敏,既提高了整体运营效率,又满足了现代应用和服务的需求。

生态里程碑

全球多家头部基础设施供应商和系统厂商将在明年开始提供基于 Quantum-X800 Spectrum-X800 的网络平台,包括 AivresDDN戴尔科技EvidenHitachi Vantara慧与联想超微 VAST Data

关于 NVIDIA

自1993年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999年发明的GPU驱动了PC游戏市场的增长,并重新定义了现代计算机图形,开启了现代AI时代,正在推动跨市场的工业数字化。NVIDIA现在是一家全栈计算基础设施公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问https://nvidianews.nvidia.com/  。

围观 138
评论 0
路径: /content/2024/100579256.html
链接: 视图
角色: editor
winniewei的头像
winniewei

AnsysCadenceHexagon、微软、罗克韦尔自动化、西门子、Trimble采用Omniverse技术帮助客户设计、模拟、构建和运行符合物理学的数字孪生

微信图片_20240319100509.jpg

NVIDIA Omniverse Cloud API 使开发者能够将 Omniverse 技术集成到其设计与仿真工具和工作流中。

美国加利福尼亚州圣何塞—— GTC ——太平洋时间 2024 3 18 日——NVIDIA于今日宣布将以API形式提供Omniverse™ Cloud,将该全球领先的工业数字孪生应用和工作流创建平台的覆盖范围扩展至整个软件制造商生态系统。

借助五个全新Omniverse Cloud应用编程接口(API),开发者能够轻松地将Omniverse的核心技术直接集成到现有的数字孪生设计与自动化软件应用中,或是集成到用于测试和验证机器人或自动驾驶汽车等自主机器的仿真工作流中。

一些全球大型工业软件制造商正在将Omniverse Cloud API加入到其软件组合中,包括 Ansys、Cadence、达索系统旗下3DEXCITE品牌、Hexagon、微软、罗克韦尔自动化、西门子和Trimble等。

NVIDIA创始人兼首席执行官黄仁勋表示:“所有制造出来的产品都将拥有数字孪生。Omniverse是一个可以构建并操作物理真实的数字孪生的操作系统。Omniverse和生成式AI都是将价值高达50万亿美元的重工业市场进行数字化所需的基础技术。”

全新Omniverse Cloud API

五个全新Omniverse Cloud API既可单独使用,也可组合使用。它们分别是:

  • USD Render生成OpenUSD数据的全光线追踪NVIDIA RTX™渲染

  • USD Write让用户能够修改OpenUSD数据并与之交互

  • USD Query:支持场景查询和交互式场景

  • USD Notify:追踪USD变化并提供更新信息

  • Omniverse Channel连接用户、工具和世界,实现跨场景协作

为工业应用带来交互式可视化和协作

自动化、数字化和可持续发展领域的技术领先企业西门子正在其西门子Xcelerator平台中采用Omniverse Cloud API,首先采用的是领先的云端产品生命周期管理(PLM)软件Teamcenter X。

黄仁勋在GTC主题演讲中展示了Teamcenter X与Omniverse API的连接,这能打通设计数据到NVIDIA生成式AI API之间的通路,且允许在该应用内直接使用Omniverse RTX渲染。

西门子总裁兼首席执行官Roland Busch表示:“通过NVIDIA Omniverse API,西门子能够利用生成式AI赋能客户,使其符合物理学的数字孪生变得更具沉浸感。这将帮助所有人在实际建造前,对下一代产品、制造流程和工厂进行虚拟设计、建造和测试。通过将现实世界与数字世界相结合,西门子数字孪生技术正在帮助全球企业提高竞争力、弹性和可持续发展能力。"  

工程仿真软件领域的领先企业Ansys正使用Omniverse Cloud API实现数据互操作性和RTX可视化,例如用于自动驾驶汽车的Ansys AVxcelerate™ 、用于6G仿真的Ansys Perceive EM,以及NVIDIA加速的求解器(如Ansys Fluent™)等解决方案。

领先的计算软件提供商Cadence正在其Cadence® Reality Digital Twin Platform中采用Omniverse Cloud API,使企业能够在构建实物之前,先在数字孪生中对数据中心进行设计、模拟和优化。

虚拟宇宙领域的可持续创新领先者达索系统正在使用Omniverse Cloud API和Shutterstock 3D AI服务,以支持其3DEXCITE内容创作应用的生成式叙事。

除此之外还包括:

  • 建筑和地理空间技术领导者Trimble计划利用这些API,使交互式NVIDIA Omniverse RTX Viewer能够与Trimble模型数据结合使用。

  • 全球数字现实技术领导者Hexagon将通过USD的互操作性,将NVIDIA Omniverse Cloud API与其现实捕捉传感器和数字现实平台整合,为客户提供超逼真的模拟和可视化功能。

  • 致力于工业自动化和数字化转型的罗克韦尔自动化将使用 Omniverse Cloud API助力RTX赋能的可视化。

GTC 发布的demo中,微软和 NVIDIA 披露了与 Hexagon 和罗克韦尔自动化的早期合作,展现了这些先进技术。

加速自主机器的开发

随着对机器人、自动驾驶汽车(AV)和AI监控系统需求的增加,开发人员希望加速端到端工作流。

传感器数据对于训练、测试和验证从感知到规划和控制的全栈自主性至关重要。

Omniverse Cloud API能够连接丰富的模拟工具与应用的开发者生态系统(如Foretellix的Foretify™平台、CARLA、MathWorks等)与业界领先的传感器解决方案提供商(如FORVIA HELLA、Luminar、SICK AG和索尼半导体解决方案公司等),通过高保真、符合物理学的传感器仿真实现全栈训练和测试。

Omniverse Cloud API将首先在Microsoft Azure上提供,于今年晚些时候向开发者提供在NVIDIA A10 GPU上的自托管,或是NVIDIA OVX™上的托管服务。

微软Emerging Technologies公司副总裁Andy Pratt表示:“下一个工业数字化时代已经到来。通过Microsoft Azure上的NVIDIA Omniverse API,世界各地各个行业的企业可以连接、协作并改进其现有工具,创造出下一批AI赋能的数字孪生工具。”

使用Omniverse数字孪生深入改变各行各业

这些全新云API进一步完善了Omniverse,而此前Omniverse已被全球各个行业的领先企业广泛采用,例如 :

  • 全球最大的市场营销和传播服务公司WPP宣布,其基于 Omniverse Cloud 的生成式AI内容生成引擎将进入到下一阶段,为零售和消费品包装行业带来AI驱动的解决方案。

  • Media.Monks 宣布采用 Omniverse 构建一个支持生成式AI和 OpenUSD 的内容创建管线,以帮助实现客户体验的规模化与超个性化。

  • 大型汽车供应商大陆集团正在开发一个能够优化其工厂运营并加快产品上市速度的数字孪生平台。

如需了解有关NVIDIA Omniverse的更多信息,请观看GTC主题演讲。免费注册后即可参加GTC上NVIDIA和行业领先者带来的Omniverse会议。本届GTC将持续至3月21日。

关于 NVIDIA

自 1993 年成立以来,NVIDIA(纳斯达克:NVDA)一直是加速计算领域的先驱。NVIDIA 在1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算基础设施公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问:https://nvidianews.nvidia.com/

围观 101
评论 0
路径: /content/2024/100579254.html
链接: 视图
角色: editor
winniewei的头像
winniewei

近日,全球领先的物联网整体解决方案供应商移远通信正式对外宣布,其以远远领先行业的速度推出前沿技术成果——5G透明天线。该天线主体选用透明薄膜材质,具有性能优、重量轻、尺寸灵活、透明度高、环境融合度好等优势,特别适用于智能网联汽车应用,在保障车载无线信号、保障通信质量的同时,又不影响车身的美观和风阻。除了汽车应用,这款透明天线还适用于市内Wi-Fi、电子广告牌等物联网场景。

1.jpg

移远通信5G透明天线

作为车辆信息交互的关键技术,车载天线正在朝着智能化、多元化、集成化方向发展。尤其是单车玻璃用量逐步提高和用户对车辆整体审美的变化,正在促使美观度高、安装灵活的透明天线成为汽车厂商的新选择。

在性能上,传统天线在汽车运行中容易受到周围环境的金属遮蔽和电器电流影响,导致信息传输效率大打折扣;同时,随着5G等技术的不断深入发展,为了满足通信应用的高容量需求,天线的布置数量变多、内部结构变复杂,导致尺寸空间不断被挤压,不同功能的天线间易出现相互影响的现象,且车载天窗玻璃的大屏化,让传统天线很难有更多的安装位置与形式。

而移远通信此次推出的5G透明天线在尺寸和重量上都得到强力优化,直击上述传统天线的弊端,为天线领域注入创新力量。据悉,此透明天线在尺寸上充分体现了"灵活性",可根据不同场景、车载设备的安装需求进行尺寸、形状调整,如需布置在车辆黑边区域,可定制矮扁形状;如需将布置于三角窗区域,形状则可相对细长;此外,为适应车载玻璃大屏化趋势,移远5G透明天线还可根据不同客户需求进行更多可变化定制。

2.jpg

5G透明天线可实现个性化调整

在天线重量层面,相比于传统天线80-150克的大重量,该5G透明天线由于选材薄膜的特性,因此即使在尺寸形状多变的情况下,其重量都相比传统天线大幅度减少,在后期安装中具有明显优势。此外,5G透明天线的透明度更是达到80%以上,可以外附在玻璃之上或嵌入在玻璃夹层中等方式自由安装。

灵活的尺寸设计、大幅优化的设备重量及安装方式的高可选性,让移远5G透明天线可以依托车载玻璃等载体,以确保不同功能的天线在车载设备上选择有序位置选择与摆放,避免产生较大隔离度参数影响,保障数据的稳定传输;同时,还可充分避免安装突兀等问题,增加车辆整体协调感及符合大众审美所需。

3.jpg

天线实物

目前,该天线已在室内、室外及地下停车场等多环境进行实测,相比于传统天线,移远5G透明天线实测结果优异。在实现5G等全频段覆盖的基础上,网络速率传输方面同样表现强劲,可满足不同场景的通信需求。

随着移动无线通信频段越来越广及人们对于通信业务需求量的不断增加,行业需要引入更多的天线形态来实现更好的信号覆盖。为顺应此种趋势,移远通信组建了专业天线团队研发并持续优化方案,目前,透明天线产品已正式申请中国地区发明专利。后续移远通信将继续以透明天线为基础,推进Wi-Fi、蓝牙、UWB等其他天线功能的探索与实践,期待为车载及更多物联网场景带来新力量。

稿源:美通社

围观 92
评论 0
路径: /content/2024/100579252.html
链接: 视图
角色: editor