All Node List by Editor

winniewei的头像
winniewei

ClearMotion首座生产工厂在江苏省常熟市开工建设,标志着公司全球化发展进入了关键时刻。作为一家致力于用创新型技术改变车内驾乘体验的汽车科技公司,常熟工厂的建立为ClearMotion 2024年向全球交付ClearMotion1(CM1)产品打下了至关重要的基础。

CM1 是ClearMotion自主研发并获得专利保护的高带宽主动悬架技术,能有效减少车内晃动对驾乘体验的的影响,提升乘坐舒适度或车内办公效率,增强娱乐体验和安全性。着眼于未来的电动汽车驾乘感受,CM1为乘客提供无与伦比的沉浸式车内娱乐体验的同时,可将不必要的振动减少75%。

公司表示,常熟工厂将是一个集批量生产、样件制造、软硬件综合测试和产品质量分析于一体的多功能生产中心。该工厂预计于 2024 年第一季度投入运营,并于第四季度开始交付。这是ClearMotion迄今为止最大,最重要的一项投资,开启了公司创新产品大规模量产的新篇章:

  • 该工厂包括 7,000 余平方米的生产区域和 2,000平方米的研发区域,设计产能为每年 150万件产品

  • 作为ClearMotion对可持续交通承诺的重要组成部分,常熟工厂也将服务于中国高速发展的电动汽车市场。

"选择在常熟建立我们的首个生产工厂,主要是因为这里得天独厚的地理位置和优越的营商环境。"ClearMotion全球运营副总裁Tobias Kummer先生表示:"落户常熟使我们能够加强与现有汽车客户的合作伙伴关系,并在中国高速发展的汽车行业中探索新的机遇。我们非常感谢常熟市政府的大力支持。"

ClearMotion常熟工厂为公司提供了高效、可持续和创新性的标准化、批量生产条件,也为将来北美和欧洲工厂树立了典范。常熟工厂的开工建设标志着CM1在全球范围内的工业化和交付能力实现了质的飞跃,也将ClearMotion正式从研发阶段带入了量产阶段。

目前,公司已获某头部电动汽车制造商量产订单,该订单预计将于2024年底开始在全球范围内交付。

关于ClearMotion公司

ClearMotion是一家致力于提升车内驾乘体验的创新型汽车科技公司,公司的主动悬架产品和道路感知软件能够有效地消除车辆在颠簸路面上的晃动。ClearMotion创始人团队来自麻省理工学院,目前在美国马萨诸塞州波士顿、英国伯明翰和中国上海、中国常熟设有公司。想要了解更多信息,请访问:https://www.clearmotion.com/。 

稿源:美通社

围观 32
评论 0
路径: /content/2023/100573613.html
链接: 视图
角色: editor
winniewei的头像
winniewei

全球首款 HBM3e 处理器提供突破性的内存和带宽;能够连接多个 GPU 以实现卓越的性能;采用易于扩展的服务器设计。

洛杉矶 — SIGGRAPH — 太平洋时间 2023 年 8 月 8 日 — NVIDIA 于今日发布新一代 NVIDIA GH200 Grace Hopper™ 平台,该平台基于全球首款搭载 HBM3e 处理器的 Grace Hopper 超级芯片,专为加速计算和生成式 AI 时代而构建。

新平台专为处理大语言模型、推荐系统、矢量数据库等全球最复杂的生成式 AI 工作负载而构建,将提供多种配置选择。

该平台采用双配置——提供的内存容量和带宽比当前产品分别增加了 3.5 倍和 3 倍——包括一个拥有 144 个 Arm Neoverse 内核、8 petaflops 的 AI 性能和 282GB 最新 HBM3e 内存技术的单个服务器。

NVIDIA 创始人兼首席执行官黄仁勋表示:“为了满足对生成式 AI 不断激增的需求,数据中心需要能够满足特定需求的加速计算平台。全新 GH200 Grace Hopper 超级芯片平台以出色的内存技术和带宽,提高了吞吐量,在不影响性能的情况下可连接多 GPU 以整合性能,并且具有可以轻松部署到整个数据中心的服务器设计。”

新平台采用了 Grace Hopper 超级芯片,可以通过 NVIDIA NVLink™ 与其他超级芯片连接,使它们能够协同工作,从而部署当下大型生成式 AI 模型。这种高速、一致性技术使 GPU 可以完全访问 CPU 内存,在双配置中可提供总计 1.2TB 的快速内存。

HBM3e 内存比当前 HBM3 快 50%,可提供总计 10TB/s 的带宽。这使得新平台能够运行比上一版本大 3.5 倍的模型,同时凭借快 3 倍的内存带宽提升性能。

对 Grace Hopper 的需求不断增长

业界领先的制造商已在提供基于先前发布的 Grace Hopper 超级芯片所打造的系统。为了推动该技术的广泛应用,采用 HBM3e 的新一代 Grace Hopper 超级芯片平台与今年早些时候在 COMPUTEX 上发布的 NVIDIA MGX™ 服务器规格完全兼容。借助 MGX,任何系统制造商都可以快速、经济地将 Grace Hopper 添加到 100 多款服务器机型中。

供应情况

预计业界领先的系统制造商将于 2024 年第二季度开始交付搭载该平台的系统。

欢迎观看黄仁勋的 SIGGRAPH 主题演讲,了解有关 Grace Hopper 的更多信息。

关于 NVIDIA

自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问https://nvidianews.nvidia.com/ 。

围观 57
评论 0
路径: /content/2023/100573612.html
链接: 视图
角色: editor
winniewei的头像
winniewei

最新平台更新、Adobe Firefly的接入、OpenUSD向 RealityKit的导入以及 Ada 架构系统将共同加速各种具有互操作性的 3D 工作流以及工业数字化进程

洛杉矶 — SIGGRAPH — 太平洋时间 2023 年 8 月 8日 — NVIDIA于今日发布 NVIDIA Omniverse™ 平台的重要版本更新,为开发者和工业企业提供全新的基础应用和服务,助力其使用 OpenUSD 框架和生成式 AI 来优化并强化其 3D 工作流程。

Omniverse 是一个OpenUSD原生软件平台,可进行跨3D 工具和应用的连接、描述及模拟。此次更新将加快虚拟世界和高级工作流的创建速度,推动工业数字化进程。Cesium、Convai、Move AI、SideFX Houdini 和 Wonder Dynamics 现已通过 OpenUSD 接入 Omniverse。

此次平台更新主要升级了 Omniverse Kit(用于开发原生 OpenUSD 应用和扩展程序的引擎),以及 NVIDIA Omniverse Audio2Face™ 基础应用和空间计算功能

NVIDIA Omniverse 与模拟技术副总裁 Rev Lebaredian 表示:“工业企业正在竞相推动工作流的数字化,这提升了对OpenUSD赋能、互联、可互操作的 3D 软件生态的需求。最新的 Omniverse 更新让开发者能够通过 OpenUSD,利用生成式 AI 来强化自身工具,并让企业能够构建更大、更复杂的世界级模拟,以此作为其工业应用的数字测试场。”

重要改进

Omniverse Kit 的更新包括:

  • 全新模块化应用构建:全新 Omniverse Kit Extension Registry 是一个用于访问、共享和管理 Omniverse 扩展程序的中央存储库,开发者可以轻松启用或关闭其应用中的功能,因此能够比以往更加轻松地利用 NVIDIA 提供的 600 多个核心 Omniverse 扩展程序来构建自定义应用。

  • 全新开发者模板和资源:全新应用和体验模板让刚开始使用 OpenUSD 和 Omniverse 的开发者只需要进行极少量的编码工作就能轻松上手。

  • 提升效率和用户体验:全新渲染优化功能充分利用 NVIDIA RTX™ GPU 中 NVIDIA Ada Lovelace 架构的各项改进,并将 DLSS 3 技术完全集成到 Omniverse RTX 渲染器中。全新 AI 降噪器可实现大型工业场景的实时 4K 路径追踪。

  • 由原生RTX驱动的空间集成:全新扩展现实(XR)开发者工具可让用户在基于 Omniverse 的应用中构建原生空间计算选项,使用户能够按照自己的想法灵活地体验 3D 项目和虚拟世界。

这些平台更新在 Omniverse 基础应用中得到了展现。Omniverse 基础应用是完全可定制的参考应用,创作者企业开发者可以对其进行复制、扩展或改进。升级的应用包括:

  • Omniverse USD Composer:让 3D 用户能够组装基于 OpenUSD 的大型场景

  • Omniverse Audio2Face:提供对只需通过音频文件即可创建逼真面部动画和手势的生成式 AI 应用编程接口的访问。现在还添加了多语种支持和全新女性基础模型。

OpenUSD 扩展 Omniverse 生态

NVIDIA还发布了一系列面向开发者和企业的框架、资源和服务,以此加速通用场景描述(即OpenUSD)的采用。

此外,NVIDIA还宣布构建了全新的Omniverse Cloud API,供开发人员更无缝地实现和部署OpenUSD工作流和应用程序。例如,ChatUSD是一个供开发人员使用的大型语言模型(LLM) copilot工具,可以回答USD知识问题或生成Python-USD代码脚本。

OpenUSD 支持的全新 Omniverse 连接器现已推出,为工业企业打破复杂生产流水线中的数据孤岛带来了更多的可能性。

Adobe 与 NVIDIA 宣布计划将 Adobe Firefly(Adobe 的创意生成式 AI 模型系列)作为 Omniverse 的 API 提供给开发者和创作者,助力其完善设计流程。此举扩大了双方在 Adobe Substance 3D、生成式 AI 和 OpenUSD 项目方面的合作。

Wonder Dynamics 已接入 Omniverse,通过其AI 平台Wonder Studio提供全新 OpenUSD 导出支持。Wonder Studio AI 平台可自动对计算机生成的角色进行动画化、添加照明并合成到实时动作场景中。全新 OpenUSD 导出支持将使艺术家只需要使用单个摄像机拍摄的视频,就能生成并导出完整的 3D 场景。

Luma AI 以 USDZ 格式制作的现实捕捉模型可以随时导入到 Omniverse 中。虚拟形象公司 Convai 和角色引擎公司 Inworld AI 的工具也接入了 Omniverse。借助 Convai 等AI工具,创作者可以在数字孪生环境中添加角色,这些角色可以提供环境和物体的相关信息,也可以充当导游或虚拟机器人。Move AI 通过 Move One 应用实现了单摄像头动作捕捉,捕捉的图像可用于生成 3D 角色动画,然后将其导出到 OpenUSD 并在 Omniverse 中使用。

Omniverse 用户现在可以构建与其他基于 OpenUSD 的空间计算平台(如 ARKit 和 RealityKit)兼容的内容、体验和应用。此外,对 Khronos Group OpenXR 开放标准的全新支持将 Omniverse 的应用范围扩展到了 HTC VIVEMagic Leap 和 Varjo 等制造商生产的更多头显。

SideFX Houdini 的用户现在还可以将 Houdini Digital Assets 直接加载到 Omniverse 视窗中,使基于 Houdini 的互联工作流衔接得更加无缝。Cesium 的 Omniverse 扩展程序 Cesium for Omniverse 支持 3D Tiles。3D Tiles是一种在虚拟世界(包括 OpenUSD 支持的虚拟世界)中传输大规模地理空间数据集的开放标准。CGI.Backgrounds 现在可在 USD Composer 中使用多种超高清 HDRi 贴图。Cadence DataCenter Design Software™现可在 Omniverse 上使用,其可帮助用户在完整的数字孪生情境中查看计算流体动力学模拟。借助 Cadence 数据中心扩展程序,用户可以在实施前规划、测试并验证设计和运营方面的考虑因素。Blackshark.AI 世界数字孪生平台现已接入Omniverse。

客户使用Omniverse实现数字化

多家客户正在使用 Omniverse 来完成从模拟机器人到训练AI模型和改进动画等各种任务。

波士顿动力人工智能研究所(Boston Dynamics AI Institute)正在使用Omniverse模拟机器人及其交互,以推动新型机器人和控制系统的设计工作。汽车和自主系统产业化领域的领先企业大陆集团正在其移动机器人业务中使用Omniverse,以大规模地生成符合物理学的合成数据,用以训练计算机视觉AI模型和执行系统集成测试。

沃尔沃汽车已将其数字孪生转为OpenUSD格式,使用Omniverse创造出沉浸式可视化效果,帮助客户在线做出购买决策。

品牌设计及体验机构 Marks Design 正在使用 Omniverse 和 OpenUSD 来简化并提高协作的效率,同时改进其动画、可视化和渲染工作流。

全新 Omniverse 系统与合作伙伴

NVIDIA 正在与全球各地的系统制造商协作,致力于为数百万设计师、建筑师和工程师提供针对 Omniverse 优化配置的RTX工作站。这些新系统最多可搭载四颗 NVIDIA RTX 6000 Ada Generation GPU 并搭配 NVIDIA Omniverse Enterprise 软件,可加速 OpenUSD 世界的构建、生成式AI赋能的协同设计以及其他工业数字化应用。

Omniverse 用户还可以充分利用全新 NVIDIA L40S GPU的性能。这款功能强大的通用数据中心GPU可加速图形密集型工作负载。

供应情况

最新 Omniverse 版本现已发布可免费下载的公测版,将于近期通过 Omniverse Enterprise 提供。

进一步了解 NVIDIA Omniverse 并观看 NVIDIA 创始人兼首席执行官黄仁勋的 SIGGRAPH主题演讲

关于 NVIDIA

自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/ 。



围观 48
评论 0
路径: /content/2023/100573611.html
链接: 视图
角色: editor
winniewei的头像
winniewei

全新 Omniverse Cloud API 帮助开发者采用 OpenUSD;生成式 AI 模型 ChatUSD LLM 使用 USD 进行对话;RunUSD 将 USD 转换成交互式图形,DeepSearch LLM 实现语义 3D 搜索

洛杉矶 — SIGGRAPH — 太平洋时间 2023 年 8 月 8 日 — NVIDIA 于今日宣布将为开发者和企业提供一系列框架、资源和服务,以加速通用场景描述(即 OpenUSD)的采用。

NVIDIA 正在通过 NVIDIA Omniverse™ 与新的技术组合、ChatUSD 和 RunUSD 等云应用编程接口(API)以及全新 NVIDIA OpenUSD 开发者计划来推进 OpenUSD 的发展。OpenUSD 是一个 3D 框架,可实现软件工具与数据类型之间的互通,从而构建虚拟世界。

NVIDIA 上周宣布与皮克斯、Adobe、苹果和 Autodesk 共同成立 OpenUSD 联盟(AOUSD),以统一 OpenUSD 规范。对 OpenUSD 的这些投资将为该联盟添砖加瓦。

NVIDIA 创始人兼首席执行官黄仁勋表示:“正如 HTML 点燃了 2D 互联网的重大计算革命,OpenUSD 也将开启协作式 3D 和工业数字化的时代。NVIDIA 通过开发 NVIDIA Omniverse 和生成式 AI ,正在全力推动 OpenUSD 的发展和应用。”

OpenUSD 上云

NVIDIA 发布了四款自主构建的全新 Omniverse Cloud API,帮助开发者更加无缝地实施和部署 OpenUSD 流程与应用。

  • ChatUSD:一款面向开发人员的大型语言模型 (LLM) copilot工具,可以回答USD知识问题或生成 Python-USD 代码脚本。ChatUSD 借助NVIDIA提供的USD功能和 Python-USD 代码片段进行微调。

  • RunUSD:其是一个Cloud API,它通过检查上传文件与OpenUSD版本的兼容性,将OpenUSD文件转换为完全路径跟踪渲染的图像,并使用Omniverse Cloud生成渲染。目前,NVIDIA OpenUSD开发者计划中的开发人员可以使用该API的演示。

  • DeepSearch:其为 LLM 代理,可在海量无标记资产数据库中进行快速语义搜索。

  • USD-GDN Publisher:其为一键式服务,可助力企业和软件制造商从 USD Composer 等基于 Omniverse 的应用向 Omniverse Cloud GDN发布基于 OpenUSD 的高保真体验,并实时传输到网络浏览器和移动设备。

不断发展演进的 OpenUSD 功能

OpenUSD 旨在更好地连接电影和动画制作流程。同时,工业应用(比如构建具有互操作性的制造设计流程、创建符合物理学的实时工厂数字孪生或训练和验证自动驾驶汽车等)也对 3D 框架提出了不同的要求。

为了支持这些高度复杂的工业和感知 AI 工作负载,NVIDIA 正在开发NVIDIA Omniverse(用于开发应用程序的OpenUSD原生软件平台),以及地理空间数据模型、度量组件、SimReady、OpenUSD 规范等。

OpenUSD 地理空间数据模型让用户可以对逼真的工厂、仓库、城市乃至地球数字孪生进行模拟和计算。对于极大规模的项目,它还会考虑到地球的曲率以确保模拟符合物理学。

工业应用需要合并来自许多工具和来源的数据集,每个数据集以不同的单位表示。NVIDIA 正在开发一个 OpenUSD 度量组件,使用户能够百分之百准确地合并不同格式的数据集。

NVIDIA 还在开发适用于全新 SimReady 3D 模型的结构。这些模型将包含真实的材质和物理属性,这对于精准训练自主机器人和车辆至关重要。例如负责分拣包裹的自主机器人需要在 3D 包裹上进行模拟训练,这些包裹会像在真实世界中一样移动并对物理接触做出反应。

欢迎通过 NVIDIA OpenUSD 开发者计划 抢先体验 OpenUSD 服务、资源和工具,其中包括由 NVIDIA 设计师和艺术家构建的两个可完整分发的全新 OpenUSD 示例场景—— Da Vinci’s Workshop 与 Riverfront Tower。

进一步了解 OpenUSD及其生态网络OpenUSD联盟 和 NVIDIA Omniverse 平台。观看 NVIDIA 创始人兼首席执行官黄仁勋的 SIGGRAPH 主题演讲

关于 NVIDIA

自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/ 。



围观 30
评论 0
路径: /content/2023/100573610.html
链接: 视图
角色: editor
winniewei的头像
winniewei

从 PC 和工作站到企业数据中心、公有云和 NVIDIA DGX 云,新推出的开发者套件在 NVIDIA AI 平台上引入了简化的模型优化与部署

洛杉矶 — SIGGRAPH — 太平洋时间 2023  8  8 日 — NVIDIA 今日发布 NVIDIA AI Workbench。这个统一、易于使用的工具套件使开发者能够在 PC 或工作站上快速创建、测试和自定义预训练的生成式 AI 模型,然后将这些模型扩展到几乎任何数据中心、公有云或 NVIDIA DGX™ 云

AI Workbench 降低了启动企业 AI 项目的复杂性。通过一个在本地系统上运行的简化界面访问,开发者可以使用自定义数据对来自 Hugging Face、GitHub 和 NVIDIA NGC™ 等流行资源库的模型进行定制。然后,这些模型可以多个平台之间轻松共享。

NVIDIA 企业计算副总裁 Manuvir Das 表示:“全球各地的企业都在竞相寻找合适的基础设施并构建生成式 AI 模型和应用。NVIDIA AI Workbench 为跨组织团队创建基于 AI 的应用提供了一条简化的途径,而这些应用正日益成为现代商业的关键。”

AI 开发者的新时代

尽管目前已有数十万计的预训练模型可供使用,但要使用众多开源工具对其进行定制,需要在多个在线资源库中搜索适当的框架、工具和容器,并运用合适的技能为特定用例定制模型。

借助 NVIDIA AI Workbench,开发者只需点击几下就能自定义并运行生成式 AI。它允许开发者从开源资源库和 NVIDIA AI 平台中获取所有必要的企业级模型、框架、软件开发工具包和库,并将其整合到一个统一的开发者工具套件中。

戴尔科技、慧与、惠普、Lambda、联想、超微等领先的 AI 基础设施提供商皆正在采用 AI Workbench,以增强其最新一代多 GPU 桌面工作站、高端移动工作站和虚拟工作站的性能。

拥有基于 Windows 或 Linux 的 NVIDIA RTX™ PC 或工作站的开发者也可以在本地 RTX 系统上启动、测试和微调企业级生成式 AI 项目,并可根据需求轻松访问数据中心和云计算资源。

全新 NVIDIA AI Enterprise 4.0 软件推进 AI 部署

为了进一步加快生成式 AI 的采用,NVIDIA 宣布推出最新版本的企业软件平台——NVIDIA AI Enterprise 4.0。它为企业提供采用生成式 AI 所需的工具,同时提供了可靠的生产部署所需的安全性和 API 稳定性。

在 NVIDIA AI Enterprise 中,有着全新提供支持的软件和工具,其有助于简化生成式 AI 的部署,包括以下几个:

  • NVIDIA NeMo™:一个用于构建、自定义和部署大语言模型的云原生框架。通过 NeMo,NVIDIA AI Enterprise 可为大语言模型应用的创建和自定义提供端到端支持。

  • NVIDIA Triton™ 管理服务:可帮助实现生产部署的自动化和优化,使企业能够在 Kubernetes 中自动部署多个 NVIDIA Triton 推理服务器 实例,并通过模型编排来高效运行可扩展的 AI。

  • NVIDIA Base Command Manager Essentials 集群管理软件:帮助企业在数据中心、多云和混合云环境中最大限度地提高 AI 服务器的性能和利用率。

NVIDIA AI Enterprise 软件使用户能够在云端、数据中心和边缘构建并运行 NVIDIA AI 解决方案。这套软件已被证实可在主流 NVIDIA 认证系统™、NVIDIA DGX 系统、所有主流云平台以及最新发布的 NVIDIA RTX 工作站上运行。

领先的软件公司 ServiceNow 和 Snowflake,以及基础设施提供商戴尔科技(其提供戴尔生成式 AI 解决方案),最近宣布与 NVIDIA 合作,在其平台上提供新的生成式 AI 解决方案和服务。NVIDIA AI Enterprise 4.0 与 NVIDIA NeMo 的集成为客户构建生产就绪型生成式 AI 奠定了基础。

NVIDIA AI Enterprise 4.0 将在 AWS Marketplace、 Google CloudMicrosoft Azure 等合作伙伴的应用市场上架,并通过 NVIDIA 的云合作伙伴 Oracle Cloud Infrastructure 提供。

此外,包括 Azure Machine Learning、ClearML、Domino Data Lab、Run:AI 和 Weights & Biases 在内的 MLOps 提供商也将与 NVIDIA AI 平台实现无缝集成,以简化生产级生成式 AI 模型的开发。

广泛的合作伙伴支持

“戴尔科技和 NVIDIA 全力致力于帮助企业构建专用的 AI 模型,把握生成式 AI 带来的巨大机遇。借助 NVIDIA AI Workbench,开发者可以充分利用戴尔完整的生成式 AI 解决方案组合,在个人电脑、工作站和数据中心基础设施上自定义模型。”

——戴尔科技集团商用客户产品副总裁 Meghana Patwardhan

“大多数企业缺乏应对 AI 软件和系统的高度复杂性所需的专业知识、预算和数据中心资源。我们期待通过 NVIDIA AI Workbench 在 HPE GreenLake 边缘到云平台上实现一键式训练和部署,从而简化生成式 AI 项目的创建。”

——慧与 AI 首席产品官 Evan Sparks

“作为工作站市场的领导者,惠普致力于为要求严苛的数据科学和 AI 模型提供所需的性能和效率,为此我们与 NVIDIA 的合作由来已久。惠普正在采用新一代高性能系统,搭载 NVIDIA RTX Ada架构 GPU 和 NVIDIA AI Workbench,为我们的企业客户带来生成式 AI 的强大功能,帮助他们在云和本地之间移动 AI 工作负载。”

——惠普高级计算解决方案高级副总裁 Jim Nottingham

“联想和 NVIDIA 正共同努力帮助客户克服部署的复杂性,更轻松地实施部署生成式 AI,以便他们为市场提供革命性的服务和产品。NVIDIA AI Workbench 和联想 AI 就绪产品组合使开发者能够充分利用其智能设备的强大功能,并在边缘到云基础设施中进行扩展。”

——联想工作站与客户端 AI 事业部副总裁兼总经理 Rob Herman

“在长期合作过程中,VMware 与 NVIDIA 通过提供专为 AI 工作负载而优化的端到端企业平台,帮助每一家企业解锁 AI 的力量。我们共同努力,使企业能够更轻松地获取和实现生成式 AI。通过 AI Workbench,NVIDIA 为开发者提供了一套强大的工具,帮助企业加速采用生成式AI。全新 NVIDIA AI Workbench 使开发团队能够将 AI 工作负载从桌面无缝迁移到生产环境中。”

——VMware AI Labs 副总裁 Chris Wolf

观看 NVIDIA 创始人兼首席执行官黄仁勋的 SIGGRAPH 主题演讲,了解关于 NVIDIA AI Workbench 和 NVIDIA AI Enterprise 4.0 的更多信息。

AI Workbench 抢先体验版即将发布。注册后即可在发布时收到通知。

关于 NVIDIA

自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问https://nvidianews.nvidia.com/ 。

围观 32
评论 0
路径: /content/2023/100573609.html
链接: 视图
角色: editor
winniewei的头像
winniewei

NVIDIA DGX 云集成到 Hugging Face 平台将加速大语言模型(LLM)的训练和调优,简化了几乎每个行业的模型定制

洛杉矶 — SIGGRAPH — 2023 年 8 月 8 日  NVIDIA 与 Hugging Face 宣布建立合作伙伴关系,为数百万开发者提供生成式 AI 超级计算服务,帮助他们构建大语言模型(LLM)和其他高级 AI 应用。

此次合作将使开发者能够使用 Hugging Face 平台内的 NVIDIA DGX™ 云 AI 超级计算为高级 AI 模型进行训练及调优,借助为智能聊天机器人、搜索、摘要等特定行业应用的业务数据定制的大语言模型(LLM),推动生成式 AI 在各个行业中的应用。

NVIDIA 创始人兼首席执行官黄仁勋表示:“研究人员和开发者是正在改变每个行业的生成式 AI 的核心力量。Hugging Face 与 NVIDIA 正在将全球最大的 AI 社区与 NVIDIA 在全球领先云环境中的 AI 计算平台相连接。通过双方的合作,Hugging Face 社区用户只需要点击一下鼠标,就可以使用 NVIDIA AI 计算。”

作为合作的一部分,Hugging Face 将提供一项名为“训练集群即服务(Training Cluster as a Service)”的新服务,用以简化企业创建新的自定义生成式 AI 模型的过程。该服务由 NVIDIA DGX 云提供支持,将在未来几个月内推出。

Hugging Face 联合创始人兼首席执行官 Clément Delangue 表示:“世界各地的人们正在利用生成式 AI 工具建立新的联系,进行新的探索,而我们仍处于这一技术转型的早期阶段。双方的合作将为 Hugging Face 带来 NVIDIA 最先进的 AI 超级计算,使企业能够通过开源并以他们需要的速度将 AI 的命运牢牢掌握在自己手中,推动未来发展。”

在Hugging Face 中大幅增强 LLM 定制和训练功能

Hugging Face 平台让开发者能够利用开源资源构建、训练和部署最先进的 AI 模型。目前有超过 15,000 家企业机构正在使用 Hugging Face,社区共享了超过 25 万个模型和 5 万个数据集。

DGX 云与 Hugging Face 的集成将实现对 NVIDIA 多节点 AI 超级计算平台的一键式访问。通过 DGX 云,Hugging Face 用户将能够连接到 NVIDIA AI 超级计算,提供利用独家数据快速训练和调整基础模型所需的软件和基础架构,推动新一轮企业大语言模型(LLM)开发浪潮。借助由 DGX 云提供支持的训练集群即服务,企业将能够利用其在 Hugging Face 上的独家数据,以前所未有的速度创建出独一无二的高效模型。

DGX 云为大规模模型加速开发和定制

每个 DGX 云实例均配备 8 颗 NVIDIA H100 或 A100 80GB Tensor Core GPU,每个节点的 GPU 总内存为 640GB。NVIDIA Networking 所提供的高性能、低延迟结构确保工作负载能够在互联系统集群中进行扩展,从而满足高级 AI 工作负载的性能要求。

DGX 云还提供 NVIDIA 专家支持,可帮助客户优化模型并快速解决开发难题。

DGX 云基础设施由领先的 NVIDIA 云服务提供商合作伙伴托管

供应情况

与 Hugging Face 集成的 NVIDIA DGX 云预计将在未来几个月内推出。

请点击观看黄仁勋的 SIGGRAPH 主题演讲,了解有关 NVIDIA DGX 云的更多信息。 

关于 Hugging Face

Hugging Face 是机器学习(ML)社区的协作平台。

Hugging Face Hub 是一个任何人都可以分享、探索、发现和试验开源 ML 的中心。HF 帮助下一代 ML 工程师、科学家和终端用户学习、协作并分享他们的工作成果,共同创造一个开放、道德的 AI 未来。

凭借快速发展的社区、一些最常用的开源 ML 库和工具,以及一支探索技术前沿的优秀科学团队,Hugging Face 正处于 AI 革命的核心。

关于 NVIDIA

自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/


围观 44
评论 0
路径: /content/2023/100573608.html
链接: 视图
角色: editor
winniewei的头像
winniewei

东芝电子元件及存储装置株式会社(“东芝”)今日宣布,推出两款采用东芝新型S-TOGLTM(小型晶体管轮廓鸥翼式引脚)封装与U-MOS IX-H工艺芯片的车载40V N沟道功率MOSFET——“XPJR6604PB”和“XPJ1R004PB”。两款产品于今日开始支持批量出货。

1.jpg

自动驾驶系统等高安全级别的应用可通过冗余设计确保可靠性,因此与标准系统相比,它们集成了更多的器件,需要更多的表贴空间。所以,要进一步缩小汽车设备的尺寸,需要能够在高电流密度下表贴的功率MOSFET。

XPJR6604PB和XPJ1R004PB采用东芝的新型S-TOGLTM封装(7.0mm×8.44mm[1]),其特点是采用无接线柱结构,将源极连接件和外部引脚一体化。源级引脚的多针结构降低了封装电阻。

与具有相同热阻特性的东芝TO-220SM(W)封装产品[2]相比,S-TOGLTM封装与东芝U-MOS IX-H工艺相结合,可实现导通电阻显著降低11%。与TO-220SM(W)封装相比,新型封装还将所需的表贴面积减少了大约55%。此外,采用新型封装的产品可提供200A漏极额定电流,高于东芝类似尺寸的DPAK+封装(6.5mm×9.5mm[1])产品,从而实现了大电流。总体而言,S-TOGLTM封装可实现高密度和紧凑布局,缩小汽车设备的尺寸,并有助于实现高散热。

由于汽车设备可能在极端温度环境下工作,因此表面贴装焊点的可靠性是一个关键考虑因素。S-TOGLTM封装采用鸥翼式引脚,可降低表贴应力,提高焊点的可靠性。

当需要并联多个器件为应用提供更大工作电流时,东芝支持这两款新产品按栅极阈值电压分组出货[3]。这样可以确保设计使用同一组别的产品,从而减小特性偏差。

东芝将继续扩展其功率半导体产品线,并通过用户友好型、高性能功率器件为实现碳中和做出贡献。

应用

-    汽车设备:逆变器、半导体继电器、负载开关、电机驱动等

特性

-    新型S-TOGLTM封装:7.0mm×8.44mm(典型值)

-    高额定漏极电流:

XPJR6604PB:ID=200A

XPJ1R004PB:ID=160A

-    AEC-Q101认证

-    提供IATF 16949/PPAP[4]

-    低导通电阻:

XPJR6604PB:RDS(ON)=0.53mΩ(典型值)(VGS=10V)

XPJ1R004PB:RDS(ON)=0.8mΩ(典型值)(VGS=10V)

主要规格

新产品

现有产品

器件型号

XPJR6604PB

XPJ1R004PB

TKR74F04PB

TK1R4S04PB

极性

N沟道

系列

U-MOSIX-H

封装

名称

S-TOGLTM

TO-220SM(W)

DPAK+

尺寸(mm

典型值

7.0×8.44,厚度=2.3

10.0×13.0,厚度=3.5

6.5×9.5,厚度=2.3

绝对最大额定值

漏极-源极电压 VDSSV

40

漏极电流(DC IDA

200

160

250

120

漏极电流(脉冲) IDPA

600

480

750

240

结温 Tch

175

电气特性

漏极-源极导通电阻

RDS(ON)

VGS10V

最大值

0.66

1.0

0.74

1.35

结壳热阻

Zth(ch-c)/W

Tc25

最大值

0.4

0.67

0.4

0.83

注:

[1] 典型封装尺寸,包括引脚。

[2] TKR74F04PB采用TO-220SM(W)封装。

[3] 东芝可以提供分组出货,每卷产品的栅极阈值电压浮动范围为0.4V。但是不允许指定特定组别。请联系东芝销售代表了解更多信息。

[4] 请联系东芝销售代表了解更多信息。

如需了解有关新产品的更多信息,请访问以下网址

XPJR6604PB

https://toshiba-semicon-storage.com/cn/semiconductor/product/mosfets/12v-300v-mosfets/detail.XPJR6604PB.html

XPJ1R004PB

https://toshiba-semicon-storage.com/cn/semiconductor/product/mosfets/12v-300v-mosfets/detail.XPJ1R004PB.html

如需了解东芝车载MOSFET更多信息,请访问以下网址:

车载MOSFET

https://toshiba-semicon-storage.com/cn/semiconductor/product/mosfets/automotive-mosfets.html

关于东芝电子元件及存储装置株式会社

东芝电子元件及存储装置株式会社是先进的半导体和存储解决方案的领先供应商,公司累积了半个多世纪的经验和创新,为客户和合作伙伴提供分立半导体、系统LSI和HDD领域的杰出解决方案。

公司22,200名员工遍布世界各地,致力于实现产品价值的最大化,东芝电子元件及存储装置株式会社十分注重与客户的密切协作,旨在促进价值共创,共同开拓新市场,公司现已拥有超过8,598亿日元(62亿美元)的年销售额,期待为世界各地的人们建设更美好的未来并做出贡献。

如需了解有关东芝电子元件及存储装置株式会社的更多信息,请访问以下网址:https://toshiba-semicon-storage.com

围观 44
评论 0
路径: /content/2023/100573606.html
链接: 视图
角色: editor
winniewei的头像
winniewei

近期,国家工业和信息化部第五批专精特新“小巨人”企业名单正式公布,芯耀辉凭借自身在中国半导体IP领域过硬的技术实力、卓越的创新能力、靓丽的量产成绩、杰出的产业贡献成功通过评定。

1.png

“专精特新”是指具有“专业化、精细化、特色化、新颖化”特征的企业,小巨人企业代表着在细分市场中表现突出,创新能力强,市场占有率高,并掌握关键核心技术的中小企业,是其中的佼佼者,处于细分行业领头羊地位。而国家级专精特新小巨人企业更是专精特新企业中最高等级、最具权威的荣誉称号。此次获得国家级专精特新“小巨人”的认定,体现了芯耀辉在技术领先性、产品创新性、量产实力和市场领导力等多方面广受认可。

全面完整的接口IP产品,完善国产先进半导体生态链

芯耀辉作为中国领先的专注先进的国产IP企业,致力于突破"卡脖子"技术,完善国产先进半导体生态链。凭借IP产品质量好、稳定性高、兼容性强、跨工艺、可移植等独特的价值和优势,以及强大的本地化支持服务,服务于包括高性能计算、数据中心、智能汽车、5G、物联网、人工智能、消费电子等数字社会的各个重要领域。目前,芯耀辉已经实现了国产先进工艺平台最全面的IP覆盖,涵盖了PCIe、Serdes、DDR、D2D、USB、MIPI、HDMI、SATA,SD/eMMC等最先进协议标准的全栈式完整IP解决方案。同时,芯耀辉高度重视国内客户的实际需求,完成了数十项基于客户实际场景和差异化需求的IP改良和定制,更好地服务国内半导体客户。公司的IP产品和服务已获得众多客户量产使用,帮助客户加速芯片设计流程,顺利流片量产。

提前布局Chiplet领域,全面赋能国内半导体产业

芯耀辉已拥有支持UCIe协议且兼容多样化D2D和C2C场景的“并口D2D PHY IP”以及高能效比和高带宽利用率的“串口112G D2D SerDes PHY IP”的完整D2D解决方案。2022年4月,芯耀辉作为首批会员加入了UCIe组织。同年10月,公司承接了国家科技部重点研发专项,在这一项目中作为主要接口IP供应商参与国内首个原生Chiplet标准制定。同时,作为国家队成员,芯耀辉着力推动国内Chiplet标准CCITA产业化,全面赋能国内半导体产业。

唯一国内车规接口IP,助力智能汽车芯片自主可控

芯耀辉是目前国内唯一一家能提供符合车规认证得接口IP厂商,在可靠性和功能安全性上满足AEC-Q100和ISO 26262 ASIL-D的严格认证要求,这标志着芯耀辉的质量管理、项目管理、设计流程等管理体系和设计开发流程符合功能安全最高级别要求,能够为市场提供高性能、高可靠、高安全的车规级IP,以及包含DFMEA、FMEDA、Safety Manual等产品取得功能安全认证需要的Safety Package,为汽车芯片功能安全、性能可靠保驾护航。

围观 121
评论 0
路径: /content/2023/100573602.html
链接: 视图
角色: editor
winniewei的头像
winniewei

节省空间型器件采用小型FlatPAK 5 x 6封装,内置3 A600 V标准整流器和200 W TRANSZORB® TVS

日前,威世科技Vishay Intertechnology, Inc.(NYSE 股市代号:VSH)宣布,推出业内先进的标准整流器与瞬变电压抑制器(TVS)二合一器件---R3T2FPHM3,为汽车应用提供新型表面贴装解决方案。Vishay General Semiconductor R3T2FPHM3采用氧化物平面芯片结设计和共阴极电路配置,将3 A,600 V标准整流器和200 W TRANSZORB® TVS组合在小型FlatPAK 5 x 6封装中。

20230817_R3T2FPHM3.jpg

日前发布的器件工作温度 -55 °C +175 °C,适用于各种高可靠性汽车应用,包括传感器单元的二级保护、分布式气囊模块、功率分配器下的低功率DC/DC转换器。双片解决方案在单一封装中组合两种不同的技术,节省PCB空间,简化布局,并降低这些应用的总体成本。与标准TVS串联,R3T2FPHM3为设计师提供完整的低钳位电压比 > 24 V解决方案。

二合一器件的整流器正向压降低至0.86 V,有助于减少功率损耗并提高效率,TVS的击穿电压为27 V。R3T2FPHM3的ESD能力符合IEC 61000-4-2标准(空气放电和接触放电模式);MSL湿度敏感度等级达到J-STD-020规定的1级,LF最大峰值为260 °C;模塑耐火等级达到UL 94 V-0。器件符合RoHS标准,无卤素,通过AEC-Q101认证

R3T2FPHM3现可提供样品并已实现量产,供货周期为12周。

VISHAY简介

Vishay 是全球最大的分立半导体和无源电子元件系列产品制造商之一,这些产品对于汽车、工业、计算、消费、通信、国防、航空航天和医疗市场的创新设计至关重要。服务于全球客户,Vishay承载着科技基因——The DNA of tech.Ô。Vishay Intertechnology, Inc. 是在纽约证券交易所上市(VSH)的“财富1,000 强企业”。有关Vishay的详细信息,敬请浏览网站 www.vishay.com

围观 35
评论 0
路径: /content/2023/100573601.html
链接: 视图
角色: editor
winniewei的头像
winniewei

精准控制功耗,具备超强系统安全性。

基础半导体器件领域的高产能生产专家Nexperia今日宣布推出负载开关产品系列,进一步扩充其模拟和逻辑产品组合。NPS4053是本次产品发布的主角,这是一款高密度集成电路(IC),凭借小巧的尺寸提供优异的系统保护性能,可帮助提高系统可靠性,保障系统安全。该器件经过优化升级,适合应用于便携式设备(如笔记本电脑)、台式电脑、扩展坞和车载信息娱乐系统。

1.jpg

负载开关是各种现代电子系统正常工作必不可少的器件。这些开关在以受控方式管理从电源到负载的电流/电压方面发挥着关键作用。在典型的电源链中,NPS4053通常位于较靠近负载的位置,负责管理供电顺序和控制浪涌电流,以及关闭电源以节省电能,因此对于电池供电设备尤其重要。该解决方案为单片式结构,可简化电路设计,与同类分立式器件相比,其PCB尺寸缩小85%。

NPS4053的工作输入电压为2.5 V-5.5 V,包含一个55 mΩ的自保护MOSFET,可有效管理流向负载的功率。该器件包含可编程限流电路,可在110 mA至2.5 A范围内以+6%的精度精准控制负载电流。该器件还提供“真正的”反向电流阻断功能,从而实现稳健可靠的端到端系统保护。为进一步加强系统监控性能,NPS4053还集成了一个故障指示器引脚,可向主机控制器发出故障事件警报。

NPS4053符合包括UL 62368在内的多个认证标准,同时还提供经AEC-Q100认证的版本。为了提高灵活性,该器件同时提供有引脚封装和无引脚封装(HWSON 6)。更多详情,请访问https://www.nexperia.cn/products/analog-logic-ics/power-ics/load-switches/

关于Nexperia

Nexperia总部位于荷兰,是一家在欧洲拥有丰富悠久发展历史的全球性半导体公司,目前在欧洲、亚洲和美国共有15,000多名员工。作为基础半导体器件开发和生产的领跑者,Nexperia的器件被广泛应用于汽车、工业、移动和消费等多个应用领域,几乎为世界上所有电子设计的基本功能提供支持。


Nexperia
为全球客户提供服务,每年的产品出货量超过1,000亿件。这些产品在效率(如工艺、尺寸、功率及性能)方面成为行业基准,获得广泛认可。Nexperia拥有丰富的IP产品组合和持续扩充的产品范围,并获得了IATF 16949ISO 9001ISO 14001ISO 45001标准认证,充分体现了公司对于创新、高效、可持续发展和满足行业严苛要求的坚定承诺。

围观 31
评论 0
路径: /content/2023/100573600.html
链接: 视图
角色: editor