All Node List by Editor

winniewei的头像
winniewei

富士康工业互联网、宣鼎、和硕、广达和纬创使用NVIDIA OmniverseIsaac SimMetropolis构建虚拟工厂、机器人仿真技术和自动化检测

44Hec3DZAp.png

COMPUTEX—2023529NVIDIA于今日宣布,全球各地的电子制造商正在使用新的综合参考工作流程来推进其工业数字化进程。这套流程将融合NVIDIA的生成式AI、3D协作、仿真模拟和自主机器技术。

依托庞大的合作伙伴网络,这套工作流程可帮助制造商使用一系列NVIDIA技术来规划、建造、运营和优化其工厂。这些技术包括:可连接顶尖计算机辅助设计(CAD)应用以及生成式AI应用程序接口(API)和先进框架的NVIDIA Omniverse;用于仿真和测试机器人的NVIDIA Isaac Sim™应用;以及可用于自动光学检测的NVIDIA Metropolis视觉AI框架。

在COMPUTEX上的主题演讲中,NVIDIA创始人兼首席执行官黄仁勋演示了电子制造业的首座全数字化智能工厂。

黄仁勋表示:“全球最大的行业所制造的都是实物,如果能先以数字化的方式制造这些产品,就可以节省大量成本。NVIDIA使电子产品制造商能够轻松构建和运营虚拟工厂,并实现制造和检查工作流程的数字化,这大大提高了质量和安全性,同时减少了最后一刻的意外和延误。”

全球领先的电子制造商与NVIDIA一起拥抱数字化

富士康工业互联网、宣鼎、和硕、广达和纬创正在使用新的参考工作流程来优化其工作间和装配线的运营,同时降低生产成本。

富士康工业互联网是这家全球最大技术制造商的服务部门之一,它正在与NVIDIA Metropolis生态合作伙伴一起实现电路板质控检测点重要环节的自动化。

富士康工业互联网首席技术官周泰裕表示:“NVIDIA在AI领域的实力以及其强大的应用合作伙伴生态为富士康工业互联网开辟了大幅提高运营效率的途径。用于工厂的NVIDIA Metropolis与用于机器人的Isaac Sim结合后,正在帮助我们以超乎想象的速度实现工业自动化目标。”

宜鼎正在使用NVIDIA Metropolis实现产线光学检测流程的自动化,实现降本提效。

领先的电子制造商和服务提供商和硕正在根据该参考工作流程,通过模拟、机器人和自动化生产检测技术实现其电路板工厂的数字化。

和硕软件研发部副总裁Andrew Hsiao表示:“NVIDIA Omniverse、Isaac Sim和Metropolis让我们能够完成AI训练、改进工厂工作流程,并在现实世界实施想法之前,先在虚拟世界中进行大量模拟。我们将整座工厂数字化,从而能够模拟完整的机器人和自动化流程,并在模拟环境中进行尝试。这不仅节省了时间,还大大降低了成本。”

笔记本电脑和电子硬件大型制造商广达正在使用其子公司Techman Robot的AI机器人检查产品质量。Techman正在利用Isaac Sim来仿真、测试和优化其最先进的协作机器人,同时使用NVIDIA AI和GPU让机器人本身能够进行推理。

全球最大的信息和通信产品供应商之一—纬创正在使用NVIDIA Omniverse以及Autodesk AutoCAD、Autodesk Revit和FlexSim的输入数据,为其自动化接收线路和操作间构建数字孪生。纬创还使用NVIDIA Metropolis的AI计算机视觉技术来实现电路板光学检测的自动化。

工业企业纷纷采用NVIDIA技术

NVIDIA正在与数家领先的工具制造和服务提供商一同在各个工作流程层面建立统一的全栈架构。

在系统层面,NVIDIA IGX Orin™提供了一个将工业级硬件与企业级软件和支持相结合的一体化边缘AI平台。IGX满足了边缘计算独特的耐久性和低功耗要求,同时提供了开发和运行AI应用所需的高性能。

制造商合作伙伴凌华科技、研华、安提国际、Dedicated Computing、Prodrive Technologies和Yuan正在为工业和医疗市场开发由IGX驱动的系统,这些系统能够为实际生产带来数字化优势。

在平台层面,Omniverse与全球领先的3D、模拟和生成式AI提供商相连接,这个开放的开发平台可以让团队在他们喜爱的应用之间建立互操作性,比如来自Adobe、Autodesk和西门子的应用。

COMPUTEX主题演讲上的一个演示展示了Omniverse如何通过连接ChatGPT和Blender GPT等各种AI助手来简化3D工作流程和Python应用开发。NVIDIA Omniverse Cloud平台即服务(PaaS)已上线微软Azure,能够向企业客户提供Omniverse软件应用的全栈套件和NVIDIA OVX基础架构,其具备Azure云服务的规模和安全性。

在应用层面,Isaac Sim使企业能够构建并优化部署AI机器人。制造商可以与工业自动化公司READY Robotics合作,在将机器人部署到现实世界之前,在仿真中对机器人任务进行编程。SoftServe和FS Studio等仿真技术合作伙伴通过构建基于数字孪生的仿真,为客户缩短开发时间。

另外,在应用层面,NVIDIA Metropolis中的一系列工厂自动化AI工作流程使工业方案商和制造商能够开发、部署和管理降本提效的定制化质量控制解决方案。包括凌华科技、安提国际、德勤、Quantiphi和西门子在内的庞大合作伙伴生态正在帮助推广这些解决方案。

COMPUTEX上进一步了解Omniverse、Isaac Sim和Metropolis。

关于NVIDIA

自1993年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999年发明的GPU驱动了PC游戏市场的增长,并重新定义了现代计算机图形,开启了现代AI时代,正在推动工业元宇宙的创造。NVIDIA现在是一家全栈计算公司,其数据中心规模的产品正在重塑整个行业。更多信息,请访问 https://www.nvidia.cn/newsroom/

围观 63
评论 0
路径: /content/2023/100571398.html
链接: 视图
角色: editor
winniewei的头像
winniewei

基于NVIDIA AIOmniverse打造的开创性引擎通过连接领先软件制造商的3DAI创作工具,重塑品牌内容和体验

YNMaY68Hf3.png

COMPUTEX2023529日—NVIDIA和WPP于今日宣布,双方正在开发一个使用NVIDIA AI和Omniverse™的内容引擎。该引擎将使创作团队能够更加快速、高效、大规模地制作出高质量的商业内容,并且完全贴合客户的品牌。

这个新引擎与3D设计、制造和创意供应链工具生态相连(包括来自Adobe和Getty Images的工具),这让WPP的艺术家和设计师能够将3D内容创作与生成式AI相结合,使其客户能够以高度个性化且吸引人的方式接触消费者,同时保持公司品牌形象、产品和徽标的质量、准确性和精确性。

NVIDIA创始人兼首席执行官黄仁勋在COMPUTEX主题演讲中播放了该引擎的演示,展示全球最大的营销服务机构WPP的团队如何与客户协作,使图片或视频等大量品牌广告内容以及3D产品配置器等体验变得更加定制化和更具沉浸感。

黄仁勋表示:“全世界的各行各业,包括具有7000亿美元价值的数字广告业都在竞相挖掘AI的优势。WPP正在通过Omniverse Cloud和生成式AI工具,让品牌能够以前所未有的逼真度和规模来创建和部署产品体验与引人注目的内容。”

WPP首席执行官Mark Read表示:“生成式AI正在以令人难以置信的速度改变营销行业。与NVIDIA合作使我们能够为客户提供目前市面上独一无二的AI解决方案,给WPP带来了独家竞争优势。这项新技术将改变品牌创造商业内容的方式,并巩固WPP在为世界顶尖品牌提供AI创作应用方面的领先优势。”

推动创作的引擎

该全新内容引擎的基础是Omniverse Cloud—用于连接3D工具以及开发和运行工业数字化应用的平台。它将使WPP能够无缝连接来自软件的产品设计数据所组成的供应链(例如为沉浸式3D内容创作而构建的工具Adobe Substance 3D、CAD工具等),来为客户产品创建贴合品牌、逼真的数字孪生。

通过使用经过严格训练的生成式AI模型,以及来自Adobe和Getty Images等合作伙伴的内容,WPP的设计师可以使用文本提示来创建各种高保真图像并将其导入到场景中。例如,Adobe Firefly—一个创造性的生成性AI模型系列,以及使用NVIDIA Picasso(用于视觉设计的自定义生成式AI模型代工厂)而构建的Getty Images的独家视觉内容。

有了最终的场景后,创作团队就可以为传统广告而渲染大量贴合品牌的2D图像和视频,或者将交互式3D产品配置器发布到NVIDIA Graphics Delivery Network(允许消费者在任意网络设备上体验的全球图形流式传输网络)上。

除了速度和效率之外,新引擎相比现有方式的另一个优势在于,目前的方法要求创作人员使用来自互不相连的工具和系统的不同数据来手动创建数十万条内容,而新引擎解决了这个问题。

WPP是当前新兴技术和生成式AI领域的领导者,其为全球各大客户创办的营销活动备受赞誉。此番与NVIDIA的合作便是建立在此基础上。

新内容引擎将很快向WPP的全球客户独家开放。

关于WPP

WPP是一家创意变革公司,致力于用创意的力量,为我们的员工、地球、客户和社区创造更美好的未来。更多信息,敬请访问www.wpp.com

关于NVIDIA

自1993年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999年发明的GPU驱动了PC游戏市场的增长,并重新定义了现代计算机图形,开启了现代AI时代,正在推动工业元宇宙的创造。NVIDIA现在是一家全栈计算公司,其数据中心规模的产品正在重塑整个行业。更多信息,请访问 https://www.nvidia.cn/newsroom/

围观 49
评论 0
路径: /content/2023/100571397.html
链接: 视图
角色: editor
winniewei的头像
winniewei

搭载 Tensor Core NVIDIA RTX GPU 正在加速生成式 AI 模型的开发与部署;即将推出的 Max-Q 低功耗 AI 推理将提高能效比。

生成式 AI 正在迅速开创一个计算的新时代,为生产力、内容创作、游戏等多领域带来了变革。NVIDIA NeMo 和 DLSS 3 帧生成技术、Meta LLaMa、ChatGPT、Adobe Firefly、Stable Diffusion 等生成式 AI 模型和应用能够使用神经网络来识别现有数据中的模式和结构,以此生成新的原创内容。

专为 GeForce RTX 和 NVIDIA RTX GPU 优化的生成式 AI 模型具有高达 1,400 Tensor TFLOP 的 AI 推理性能,运行速度比同类其他设备快 5 倍。这要得益于 RTX GPU 中用于加速 AI 计算的专用硬件 Tensor Cores,以及常规的软件改进。上周在 Microsoft Build 大会上发布的增强功能等软件方面的改进使得像 Stable Diffusion 这样充分利用新的 DirectML 优化功能的生成式 AI 模型性能翻倍。

1.jpg

随着越来越多的 AI 推理在本地设备上运行,PC将需要强大而高效的硬件以支持这些复杂的任务。为了满足这一需求,RTX GPU 将添加用于 AI 工作负载的 Max-Q 低功耗推理。在执行轻量级的推理任务时,GPU 将以极低的功耗运行,而在运行繁重负载如生成式 AI 工作时,则可升至极高的性能水平。

为了创建新的 AI 应用,在 Windows 11上运行的整个 RTX 加速 AI 开发堆栈现已向开发者开放,使 AI 模型的开发、训练和部署变得更容易。开发者首先会通过Windows Subsystem for Linux(WSL)上经过优化的深度学习框架开发和微调模型。

然后开发者可以无缝上云并在各个主要云服务商(CSP)提供的相同 NVIDIA AI 堆栈上进行训练。接下来,开发者使用全新 Microsoft Olive 等工具优化训练好的模型以实现快速推理,最后面向专为 AI 优化的系统的 1 亿多 RTX PC 和工作站部署AI 应用和功能。

微软 Windows 芯片和系统集成副总裁 Pavan Davuluri 表示:“未来几年,AI 将成为推动 Windows 客户创新的最大驱动力。我们正在与 NVIDIA 开展软硬件优化方面的合作,以此为开发者提供变革性的、高性能的、易于部署的体验。”

迄今为止,超过 400 款已发布的应用和游戏由 RTX AI 提供加速,该阵容还在持续壮大中。

在拉开了Computex 2023 序幕的主题演讲中,NVIDIA 创始人兼首席执行官黄仁勋介绍了用于游戏开发的新生成式 AI——NVIDIA ACE 游戏开发版(NVIDIA Avatar Cloud Engine (ACE) for Games)。

通过 AI 驱动的自然语言互动,这项自定义 AI 模型代工服务使游戏中的非玩家角色(NPC)更加智能,从而彻底改变游戏体验。中间件、工具和游戏开发者可以使用 “ACE 游戏开发版(ACE for Games)” 在他们的软件和游戏中建立并部署定制化的语音、对话和动画 AI 模型。

RTX 上运行的生成式 AI 无处不在

从服务器到云,再到设备,在 RTX GPU 上运行的生成式 AI 无处不在。NVIDIA 的加速 AI 计算具有低时延、全栈式的特点。多年来,我们一直在优化 AI 软硬件架构的各个部分,包括 RTX GPU 上的专用 AI 硬件——第四代 Tensor Core。

通过对驱动的定期优化,能够确保峰值性能。最新 NVIDIA 驱动在与经 Olive 优化的模型和 DirectML 更新结合后,能够在Windows 11上大幅提升开发者的速度。例如在 Stable Diffusion 中,使用 DirectML 优化路径的开发者将干扰时间缩短了两倍。

借助基于 NVIDIA Ada Lovelace 架构打造的最新一代 RTX 笔记本电脑和移动工作站,用户可以在任何地方运行生成式 AI。新一代移动平台的外形尺寸只有 14 英寸,重量仅为 3 磅左右,将性能和便携性提升至新高。戴尔、惠普、联想、华硕等制造商正在 RTX GPU 和 Tensor Cores 的支持下,推动生成式 AI 时代的发展。

●“随着各个行业继续部署 AI,预计到 2030 年,AI需求的年增长率将超过 37%,企业和消费者将越来越需要合适的技术以实现 AI 的开发和落地,比如生成式 AI 等。多年来,联想一直致力于开发适用于 AI 工作负载的产品和解决方案,进而助力扩展生成式 AI 的应用范围——从设备到服务器、再到云。联想 ThinkPad、ThinkStation、ThinkBook、Yoga、Legion 和 LOQ 等搭载 NVIDIA RTX GPU 的 PC 正在推动生成式 AI 的变革浪潮,在节省时间、创作内容、完成工作和游戏等方面提供更好的用户体验。”

——联想副总裁兼 PC 业务和智能设备首席技术官 Daryl Cromer

●“生成式 AI 是一项革命性的技术,同时也是促进各个行业未来创新的催化剂。惠普与 NVIDIA 共同为开发者提供卓越的性能、移动性以及运行当前加速 AI 模型所需的可靠性,推动全新生成式 AI 时代的发展。”

——惠普高级副总裁兼 Z 系列总经理 Jim Nottingham

●“我们近期与 NVIDIA 围绕 Project Helix 的合作重点是助力企业更轻松地在本地构建和部署值得信赖的生成式 AI。在这个历史性时刻,我们进一步将生成式 AI 引入 PC 。想象一下,应用开发者能够在完善神经网络算法的同时,在本地控制训练数据和 IP。正是为了实现这个目标,我们设计了搭载 NVIDIA RTX GPU 的强大、可扩展 Precision 工作站。作为工作站领域的全球领导者,戴尔在帮助用户安全加速从边缘到数据中心的 AI 应用方面具有独特的优势。”

——戴尔科技客户产品部总裁 Ed Ward

●“生成式 AI 的时代正在到来,因此需要强大的处理能力和经过全面优化的软硬件。借助 NVIDIA AI 平台,包括现在已经预装到我们许多产品上的 NVIDIA Omniverse,我们十分高兴能看到 AI 的变革在华硕和 ROG 笔记本电脑上持续不断地推动着。”

——华硕全球消费业务市场总监 Galip Fu

很快,搭载 RTX GPU 的笔记本电脑和移动工作站就将做到“两全其美”。纯 AI 推理工作负载将根据 Tensor Core 的性能进行优化,同时尽可能降低 GPU 的功耗,延长电池续航时间,并保持系统拥有出色的散热和降噪表现。 GPU 还可根据工作负载的需要,动态提升至最高 AI 性能。

开发者可以访问面向加速应用开发者的 NVIDIA AI 网页,了解如何对应用进行端到端优化,以充分利用 GPU 加速。

关于 NVIDIA自1993年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999年发明的GPU驱动了PC游戏市场的增长,并重新定义了现代计算机图形,开启了现代AI时代,正在推动工业元宇宙的创造。NVIDIA现在是一家全栈计算公司,其数据中心规模的产品正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/

围观 27
评论 0
路径: /content/2023/100571396.html
链接: 视图
角色: editor
winniewei的头像
winniewei

GH200驱动的系统将加入到全球系统制造商基于NVIDIA GraceHopperAda Lovelace架构的400多种系统配置中

1.jpg

COMPUTEX—2023529 NVIDIA于今日宣布NVIDIA® GH200 Grace Hopper超级芯片全面投产,将为全球各地即将上线的系统提供运行复杂AIHPC工作负载所需的动力。

这些由GH200驱动的系统将加入由基于NVIDIA Grace™NVIDIA Hopper™ NVIDIA Ada LovelaceNVIDIA BlueField®NVIDIA最新CPUGPUDPU架构的不同组合驱动的400多种系统配置中,以满足市场对生成式AI的激增需求。

COMPUTEX上,NVIDIA创始人兼首席执行官黄仁勋公布了新系统、合作伙伴以及关于GH200 Grace Hopper超级芯片的更多细节。这款产品使用NVIDIA NVLink®-C2C互连技术,将基于ArmNVIDIA Grace CPUHopper GPU架构互联,实现了高达900GB/s的总带宽,比传统加速系统中的标准PCIe Gen5通道高出7倍,提供了惊人的算力,能够满足要求最苛刻的生成式AIHPC应用。

NVIDIA加速计算副总裁Ian Buck表示:“生成式AI正在迅速带来业务变革,解锁医疗、金融、商业服务等行业的新机遇并加速这些行业的研发工作。随着Grace Hopper超级芯片的全面投产,全球的制造商很快将会提供企业使用专有数据构建和部署生成式AI应用所需的加速基础设施。”

欧洲和美国的全球超大规模云服务商和超算中心是将会是接入GH200驱动的系统的客户之一。

数百个加速系统和云实例

全球众多系统制造商正在推出多种由NVIDIA 加速器和处理器的不同组合驱动的各种系统,其中台湾地区的制造商包括AAEON AdvantechAetinaASRock RackASUSGIGABYTEIngrasys InventecPegatronQCTTyanWistron Wiwynn等,在今天NVIDIA创始人兼CEO黄仁勋的COMPUTEX主题演讲中作为主要的合作伙伴被提及。

此外,全球服务器制造商 CiscoDell TechnologiesHewlett Packard EnterpriseLenovo 等以及Atos集团旗下的Eviden正在提供各种NVIDIA加速系统。

NVIDIA H100的云合作伙伴包括AWSCirrascaleCoreWeaveGoogle Cloud,LambdaMicrosoft AzureOracle Cloud InfrastructurePaperspaceVultr等。

NVIDIA L4 GPU现已在Google Cloud上可用。

跨加速系统的全栈式计算

即将推出的由NVIDIA GraceHopperAda Lovelace架构加速的系统一系列产品为NVIDIA AINVIDIA Omniverse™平台、NVIDIA RTX™技术在内的NVIDIA软件栈提供广泛的支持。

NVIDIA AI Enterprise作为NVIDIA AI平台的软件层,提供了100多个框架、预训练模型和开发工具,以简化包括生成式AI、计算机视觉和语音AI在内的生产型AI的开发和部署。

NVIDIA Omniverse开发平台用于构建和运行元宇宙应用,它使个人和团队能够跨多个软件套件开展工作并在共享环境中进行实时协作。该平台基于Universal Scene Description框架——一种用于虚拟世界的开放的、可扩展的3D语言。

NVIDIA RTX平台融合了光线追踪、深度学习和光栅化技术,通过支持业内领先的工具和API,从根本上改变了内容创作者和开发者的创作流程。建立在RTX平台上的应用带来了实时逼真渲染以及AI增强的图形、视频和图像处理能力,使数百万设计师和艺术家能够创造出自己的最佳作品。

供货情况

配备GH200 Grace Hopper超级芯片的系统预计将在今年晚些时候开始供应。

COMPUTEX上了解更多有关AI、图形学以及由NVIDIA技术驱动的系统的最新动态。

关于 NVIDIA自1993年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999年发明的GPU驱动了PC游戏市场的增长,并重新定义了现代计算机图形,开启了现代AI时代,正在推动工业元宇宙的创造。NVIDIA现在是一家全栈计算公司,其数据中心规模的产品正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/

围观 29
评论 0
路径: /content/2023/100571395.html
链接: 视图
角色: editor
winniewei的头像
winniewei

QCTSupermicro率先使用这项支持100多种系统配置的服务器规范来加速AIHPC、元宇宙工作负载

1.jpg

COMPUTEX——2023529——为了满足全球数据中心多样化的加速计算需求,NVIDIA今天在COMPUTEX发布了NVIDIA MGX™服务器规范。该规范为系统制造商提供了一个模块化参考架构,以快速、经济高效地制造100多种服务器机型,适用于广泛的AI、高性能计算和元宇宙应用。

ASRock RackASUSGIGABYTEPegatronQCTSupermicro将采用MGX,它可将开发成本削减四分之三,并将开发时间缩短三分之二至仅6个月。

NVIDIA GPU产品副总裁Kaustubh Sanghani表示:“在构建满足特定业务和应用需求的数据中心时,企业正在寻求更多的加速计算选项。我们设计MGX是为了帮助各个机构可以自行开发企业AI,同时节省他们大量时间和金钱。”

通过MGX,制造商以一个为加速计算优化的服务器机箱作为基础系统架构入手,然后选择适合自己的GPUDPUCPU。不同的设计可以满足特定的工作负载,如HPC、数据科学、大型语言模型、边缘计算、图形和视频、企业AI以及设计与模拟。AI训练和5G等多种任务可以在一台机器上处理,而且可以轻松地升级到未来多代硬件。MGX还可以轻松集成到云和企业数据中心。

与行业领导厂商合作

QCTSupermicro将率先在8月份上市采用MGX设计的机型。Supermicro今天发布的ARS-221GL-NR系统将采用NVIDIA Grace™ CPU超级芯片,而QCT今天宣布的S74G-2U系统将采用NVIDIA  GH200 Grace Hopper超级芯片

此外,SoftBank Corp计划在日本各地推出多个超大规模数据中心,并使用MGX在生成式AI5G应用之间动态分配GPU资源。

SoftBank Corp总裁兼首席执行官Junichi Miyakawa表示:“随着生成式AI日益进入商业和消费者的生活方式中,以合适的成本构建合适的基础设施是网络运营商面临的最大挑战之一。我们期待NVIDIA MGX能够应对这些挑战,以满足多用途AI5G以及更多依赖实时工作负载的需求。”

不同的设计满足不同的需求

数据中心越来越需要满足不断增长的算力需求并降低碳排放,以应对气候变化,同时还要降低成本。

NVIDIA加速计算加速的服务器长期以来一直提供卓越的计算性能和能效。现在,MGX模块化的设计使系统制造商能够更有效地满足每个客户独特的预算、供电、散热设计和机械要求。

多种规格尺寸提供最大的灵活性

MGX提供不同的规格尺寸,并兼容当前和未来多代NVIDIA硬件,包括:

  • 机箱:1U2U4U(风冷或液冷)

  • GPU 完整的NVIDIA GPU产品组合,包括最新的H100L40L4

  • CPUNVIDIA Grace CPU超级芯片、GH200 Grace Hopper超级芯片、X86 CPU

  • 网络产品:NVIDIA BlueField®-3 DPUConnectX®-7网卡

MGXNVIDIA HGX的不同之处在于,它能够灵活地兼容多代NVIDIA产品,确保系统制造商能够重新利用现有设计,并轻松地采用下一代产品,而无需代价高昂的重新设计。相比之下,HGX基于一个通过NVLink® 连接的多GPU基板,为打造极致的AIHPC系统而量身定制。

软件进一步驱动加速

除硬件外,MGX还得到NVIDIA完整软件栈的支持,使开发人员和企业能够开发并加速AIHPC和其他应用。其中包括NVIDIA AI Enterprise,即NVIDIA AI平台的软件层,它涵盖100多个框架、预训练模型和开发工具,可为AI和数据科学加速,从而全面支持企业AI的开发和部署。

MGX兼容开放计算项目(Open Compute Project)和电子工业联盟(Electronic Industries Alliance)的服务器机架,可快速集成到企业和云数据中心。

观看NVIDIA创始人兼首席执行官黄仁勋在2023COMPUTEX主题演讲中介绍MGX服务器规范。

关于 NVIDIA自1993年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999年发明的GPU驱动了PC游戏市场的增长,并重新定义了现代计算机图形,开启了现代AI时代,正在推动工业元宇宙的创造。NVIDIA现在是一家全栈计算公司,其数据中心规模的产品正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/

围观 73
评论 0
路径: /content/2023/100571394.html
链接: 视图
角色: editor
winniewei的头像
winniewei

携手华为繁荣鸿蒙生态

近日,软通动力子公司鸿湖万联成功通过了华为的"HarmonyOS Connect(鸿蒙智联)生态解决方案合作伙伴"认证。这既是华为对鸿湖万联在HarmonyOS Connect全栈式解决方案中技术创新和研发成果的认可,也是对其在推动鸿蒙生态发展方面所做贡献的肯定。截至目前,鸿湖万联已与超过400家不同行业的设备厂商建立了生态合作关系,帮助1000多款产品接入了HarmonyOS Connect生态系统,接入量居行业首位,并两年蝉联"全场景智慧生活卓越合作伙伴"称号。

1.jpg

HarmonyOS Connect是华为面向消费领域的智能硬件开放生态系统,依托华为的HarmonyOS、硬件设备、芯片技术和云服务等软硬件开放能力,为设备制造商和解决方案提供商等提供全方位赋能,帮助合作伙伴设备快速融入华为的全场景智慧生活,实现商业共赢。

软通动力作为华为的重要合作伙伴、首批HUAWEI HiLink软件服务商,在鸿蒙诞生之初就积极参与鸿蒙生态建设,曾荣获"鸿蒙使能贡献奖",在鸿蒙系统研发和硬件生态打造方面积累了宝贵的经验。鸿湖万联作为承接软通动力鸿蒙业务的子公司,全面拥抱HarmonyOS Connect生态"1+8+N"的核心发展战略。

2.jpg

在影音娱乐领域,鸿湖万联与合作伙伴共同打造了HarmonyOS Connect希影全系列投影仪,已累计销售超过40万台,用户好评率高达98%以上,成为HarmonyOS Connect生态的明星产品。此外,鸿湖万联的HarmonyOS Connect全栈式使能方案已覆盖智能家居、出行、办公、教育等多个场景。

未来,软通动力将与华为携手合作,共同致力于HarmonyOS Connect生态可持续发展,为客户提供多维度、立体化的HarmonyOS Connect整体解决方案,为消费者带来全新的生活方式和数字化生活体验,助力客户将全场景智慧生活带入千家万户。

稿源:美通社

围观 34
评论 0
路径: /content/2023/100571393.html
链接: 视图
角色: editor
winniewei的头像
winniewei

5月28日,2023中关村论坛平行论坛"全球标杆孵化器论坛——前沿孵化模式探讨与实践"在京举行。论坛上,软通动力与璞跃中国(Plug and Play China)签署合作协议,达成战略合作伙伴关系。未来,双方将共同推进数字技术领域的大中小企业融通创新和协同发展,携手共建数字化创新生态。

1.jpg

左 软通动力执行副总裁、首席数字官兼创新研究院院长彭强 右 璞跃中国常务副总裁、管理合伙人赵晨

璞跃中国常务副总裁、管理合伙人赵晨和软通动力执行副总裁、首席数字官兼创新研究院院长彭强代表双方签署合作协议。北京市人民政府副秘书长韩耕,北京市科委、中关村管委会副主任张宇蕾,科学技术部火炬中心孵化器管理处处长王德花,北京创业孵育协会理事长颜振军作为见证嘉宾出席本次签约仪式。

"全球标杆孵化器论坛"致力于搭建全球前沿孵化思想碰撞交流的主平台,为推动全球硬科技孵化升级发展建言献策,助力构建协同、开放、共享的全球硬科技创新创业生态。选择在本次论坛进行签约,彰显了双方共同参与推动科技创新开放新生态的决心。

基于本次签约,双方将充分发挥各自优势,依托软通动力多年来在数字化服务领域积累的丰富经验和行业Know-How,以及璞跃中国在科技创新企业和资本市场中的强大影响力,积极探索产业资源对接与创新业务孵化、咨询研究与解决方案等领域的创新合作,共创产业发展新价值。

目前,新一轮科技革命和产业变革加速演进,正在催生科技创新的新热潮。尤其是随着数字经济的蓬勃发展,数字化转型与创新领域前景广阔。作为数字化转型的实践者和赋能者,软通动力将携手璞跃中国以及更多伙伴不断推动数字化创新生态繁荣发展,共赢数字未来。

2.jpg

关于璞跃中国

璞跃(Plug and Play)是全球知名的科技创新生态平台,拥有20余年的科创行业经验,致力于投资早期硬科技项目,并开展企业科技创新服务。2016年,"璞跃中国(Plug and Play China)"正式成立。当前,璞跃中国构建了国内领军的一站式创新服务和交流平台,开展创新服务 (企业创新、城市创新、国际创新)、创新空间、科技投资三类创新业务。迄今璞跃中国已投资培育了包括ApplyBoard、AutoX、非夕科技等逾百家硬科技企业。企业目前布局北京、上海、深圳等超一线城市,设立创新中心;并在武汉、南京基于当地产业生态,开展城市创新合作。

关于软通动力

软通动力信息技术(集团)股份有限公司是中国领先的软件与信息技术服务商,致力于成为具有全球影响力的数字技术服务领导企业,企业数字化转型可信赖合作伙伴。凭借深厚的行业积累,公司在10余个重要行业服务超过1000家国内外客户,其中超过200家客户为世界500强或中国500强企业。

稿源:美通社

围观 55
评论 0
路径: /content/2023/100571392.html
链接: 视图
角色: editor
winniewei的头像
winniewei

近日,在时隔两年的上海国际光伏与智慧能源展(SNEC)上,天合跟踪与东方电气集团国际合作有限公司(以下简称"东方国际")成功签署"乌兹别克斯坦吉扎克(Jizzakh)、撒马尔罕(Samarkand)太阳能光伏项目"跟踪支架供货协议。 根据协议,天合跟踪将作为独家供应商向乌兹别克斯坦吉扎克(Jizzakh)、撒马尔罕(Samarkand)两处太阳能光伏项目提供累计510MW的开拓者1P跟踪支架系统。项目建成后将对提高当地电网清洁能源发电比例、优化当地能源结构,改善当地生态环境具有重大意义。

1.jpg

签约现场

这是继2021年8月建成的首座光伏电站 -- 纳沃伊光伏电站项目后,天合跟踪向乌兹别克斯坦供货的第二个项目。乌兹别克斯坦近年来推出2030太阳能电力发展路线图,规划中清晰表明对高质量、高效率光伏电站的技术要求。再次入围充分表明了天合跟踪产品在当地具有优异的表现,获得了市场及行业的普遍认可,为天合跟踪在该地区的业务发展奠定了坚固基础。

东方国际副总经理王騃先生对此次合作表示充满信心,"天合25年的光伏从业经验,以及一直稳居Tier 1领头企业的行业地位,使天合在品牌信誉及产品先进性上都让业主和投资商非常放心。并且天合跟踪在乌兹别克斯坦已有成功的项目经验,他们产品+工程服务的全生命周期解决方案被证实确实有效帮助电站高效、高质量建设。因此,与天合跟踪合作使我们对吉扎克(Jizzakh)、撒马尔罕(Samarkand)两个项目很有信心。"

稿源:美通社

围观 11
评论 0
路径: /content/2023/100571391.html
链接: 视图
角色: editor
winniewei的头像
winniewei

近日,Gartner发布全球服务器市场指南《Market Guide for Servers》,从市场定义、市场方向、市场规模等角度对全球服务器厂商进行全面评估与研究,并甄选出代表性厂商,是全球用户进行服务器选型的重要参考和依据。浪潮信息入围全球服务器标杆厂商,在液冷、开放计算等多方面能力获得高度认可。浪潮信息一直深度参与着全球企业的数字化、智慧化转型,参与全球数字经济的发展与数字社会的构建,为建设一个可持续发展的未来贡献计算力量。

开放 推动计算产业持续发展

随着云计算、大数据、AI等应用的普及,数据中心产业呈现出规模化、集中化,如今10万台、50万台服务器规模的数据中心越来越常见,特别是一些CSP,其数据中心大型化趋势非常明显。大型、超大型数据中心的发展推动服务器架构设计的进一步演进,灵活性、集成度、可管理性等不断提高,更适合大型数据中心部署。

Gartner指出,超大规模服务提供商是服务器技术和体系结构创新的主要驱动力之一。超大规模企业需要更加敏捷的创新产品及服务,以降低数据中心的能耗和运营成本,并针对特定的工作负载进行更多优化。以OCP为代表的开放计算项目,创造出一种全新的、全球化的协作模式,通过消除技术壁垒,使得硬件创新的速度远超过去,加速技术创新迭代。

作为开放计算项目先行者、OCP中国社区牵头方,浪潮信息始终坚持开放、开源的技术路线,持续推动开放计算产业化,加速开源技术普惠。目前,浪潮信息积极参与面向AI、边缘等标准规范的建立,参与OCP Hardware Management Module 项目组DC-SCM2.0规范的制定与完善,并牵头OAM规范、天蝎标准、边缘OTII规范等;同时推动技术标准产品化,率先向社区贡献了多款产品,以供全球厂商借鉴。

过去十年,数据中心计算呈现指数级增长,未来的挑战在于,如何建立一个可扩展且可持续的基础设施从而满足不断增长的计算需求,低功耗但高效的计算将会成为一个崭新的主导因素。

液冷全链条打造 助力数据中心绿色发展

Gartner全球服务器市场指南指出,服务器是数据中心中最大的能源用户之一,它推动了大部分IT的总体碳足迹以及大多数企业的废物产生。随着全球数字业务的快速发展,对计算的需求不断增长,越来越多的CEO将可持续发展作为关键的业务驱动力,许多客户正在优先考虑服务器的环境可持续性管理。

在"碳达峰"、"碳中和"的关键期,浪潮信息探索绿色数据中心解决之道,为经济社会发展打造"低碳" 数字底座,秉承全线支持液冷的策略,通用服务器、高密度服务器、整机柜服务器、AI服务器等全产品线支持冷板式液冷。为更好的推动液冷规模化、产业化,浪潮信息建成亚洲最大的液冷数据中心研发生产基地,构筑了从研发、测试、生产、 交付的全链条液冷智造能力,年交付能力超过 10 万台,为不同类型的数据中心提供液冷系列产品、改造和部署方案,整体 PUE 降至 1.1 以下。

可持续性不仅限于服务器全生命周期的能效,也包括服务器是如何制造的,在其生命周期内将使用多少能源,以及它是被重复使用的、回收的还是会被丢弃。浪潮信息坚持产品全生命周期的绿色管理。2021年,开展工业产品绿色企业国家认证,参与国家绿色制造项目和国家标准的编制,减少塑胶等材料使用,产品包装使用循环可再生材料,减少 350 吨包装材料使用量。同时,全面贯彻绿色生产,生产单个产品用电量同比降低 26.38%,75 个产品获得中国节能认证。在最新一代的服务器平台,从产品内部材料到外部包装,均实现了绿色可持续,其内部电子材料满足ROHS标准(不含铅、镉等6类有害金属),包装材料使用100%可回收材料,塑胶材料用量减少30%,若应用到全球服务器,可减塑超94000吨。

稿源:美通社

围观 53
评论 0
路径: /content/2023/100571388.html
链接: 视图
角色: editor
winniewei的头像
winniewei

近来,ChatGPT成为社会各界关注的焦点。从技术领域看,ChatGPT的爆发是深度学习领域演进、发展和突破的结果,其背后代表着Transformer结构下的大模型技术的飞速进展。因此,如何在端侧、边缘侧高效部署Transformer也成为用户选择平台的核心考量。

2023年3月,爱芯元智推出了第三代高算力、高能效比的SoC芯片——AX650N,依托其在高性能、高精度、易部署、低功耗等方面的优异表现,AX650N受到越来越多有大模型部署需求用户的青睐,并且先人一步成为Transformer端侧、边缘侧落地平台。

1.png

Transformer是当前各种大模型所采用的主要结构,而ChatGPT的火爆让人们逐渐意识到人工智能有着更高的上限,并可以在计算机视觉领域发挥出巨大潜能。相比于在云端用GPU部署Transformer大模型,在边缘侧、端侧部署Transformer最大的挑战则来自功耗,这也使得爱芯元智兼具高性能和低功耗特质的混合精度NPU,成为端侧和边缘侧部署Transformer的首选平台,而其优越性能则决定了Transformer的运行效果。

作为人工智能视觉感知芯片研发及基础算力平台公司,爱芯元智始终致力于让更多的实际应用落地。目前大众普遍采用的Transformer网络SwinT,在爱芯元智AX650N平台表现出色:361 FPS的高性能、80.45%的高精度、199 FPS/W的低功耗以及原版模型且PTQ量化的极易部署能力,都让AX650N在Transformer的落地中有着领先的优势地位。

2.png

具体来看,361帧的高性能,可媲美汽车自动驾驶领域基于GPU的高端域控SoC;而80.45%的高精度成绩同样高于市面平均水平;199 FPS/W的速度则充分体现出低功耗的特点,对比于目前基于GPU的高端域控SoC,有着数倍的优势;更为重要的,AX650N部署方便,GitHub上的原版模型可以在爱芯元智的平台上高效运行,不需要对模型做修改,亦无需QAT重新训练。与此同时,AX650N支持低比特混合精度,用户如果采用INT4,可以极大地减少内存和带宽占用率,达到有效控制端侧、边缘侧部署成本的目的。这些特性都保证了AX650N作为人工智能算力平台,最终落地效果更好用、更易用,且大幅提升了用户效率。

目前,AX650N已适配包括ViT/DeiT、Swin/SwinV2、DETR在内的Transformer模型,在DINOv2也已达到30帧以上的运行结果,这也更便于用户在下游进行检测、分类、分割等操作。基于AX650N的产品目前已在智慧城市、智慧教育、智能制造等计算机视觉核心领域发挥出重要作用。

3.png

接下来,爱芯元智AX650N将会针对Transformer结构进行持续优化,并且探索更多的Transformer大模型,例如多模态大模型,不断让Transformer在爱芯元智平台上得到更好的落地效果。值得一提的是,爱芯元智还将推出相应开发板,满足开发者对Transformer深度研究的需求,探寻更丰富的产品应用。

“爱芯元智将继续努力打造基于芯片+软件的端侧、边缘侧人工智能算力平台,让智能落实到生活的真实场景,最终实现普惠AI造就美好生活的企业愿景”,爱芯元智创始人、CEO仇肖莘女士表示。未来,爱芯元智将在成为人工智能算力平台型公司的道路上继续探索,加速基于Transformer的大模型在端侧、边缘侧落地的节奏,让普惠智能真正落地生根,开花结果。

关于爱芯元智:

爱芯元智成立于20195月。作为人工智能视觉感知芯片研发及基础算力平台公司,爱芯元智组建了从芯片设计、研发到生产的全功能团队,核心成员均参与过10颗以上芯片的设计和生产,在产品规划和产品落地上具有丰富经验。

目前,爱芯元智已成功研发并量产了三代多颗端侧、边缘侧智能视觉感知芯片,所有芯片产品均具备低功耗优势及优异的图像处理能力。凭借自研核心技术——爱芯智眸®AI-ISP和混合精度NPU,爱芯芯片产品可满足客户不同场景的产品需求,相关产品和解决方案已成功落地华东、华南、华北,广泛应用于智慧城市、智能交通、智慧家居、智慧制造、智能消费等领域。

围观 102
评论 0
路径: /content/2023/100571387.html
链接: 视图
角色: editor