All Node List by Editor

winniewei的头像
winniewei

3月20日 -- 随着人工智能技术的持续突飞猛进,对先进存储解决方案的需求也在急剧攀升。特别是AI大模型在边缘设备和移动设备领域的逐步应用,对高可靠、高性能存储的需求将大幅增长。为了满足不断增长的需求,江波龙于今日在CFMS2024上宣布与西部数据加强合作关系,积极探索并共同支持下一代基于人工智能的移动终端存储和应用的市场机遇。

在双方长期合作的基础上,江波龙和西部数据将进一步深化业务合作,为大中华地区(包括中国大陆、港澳台地区)的手机市场提供市场领先的定制化嵌入式存储解决方案。

江波龙将在其面向手机市场的存储产品中使用西部数据的创新闪存,而西部数据亦将提供全方位和高效的技术与工程支持,帮助江波龙在大中华地区提供先进的移动终端存储解决方案。通过双方的紧密合作,江波龙将能够更有效地利用西部数据的闪存技术优势,进而提升其在移动终端存储市场的产品竞争力,确保双方始终立足于嵌入式存储解决方案的创新前沿。

江波龙董事长、总经理蔡华波表示:"AI在手机领域的应用正展现出广阔的前景和巨大的潜力。为了在手机市场取得更进一步的突破,公司与西部数据共同加强了嵌入式存储的资源合作,结合江波龙自主研发的主控技术、固件算法以及自有的先进封装测试能力,我们将能够显著提升手机存储的性能,从而推动智能手机生成式AI功能的快速普及。"

西部数据执行副总裁兼闪存业务总经理Rob Soderbery表示:"我们高度重视与江波龙的业务合作关系,并很高兴宣布延续我们的长期合作关系。此次合作充分整合了我们尖端的NAND技术,助力江波龙设计和推出专为大中华移动终端市场量身打造的产品。这一战略举措不仅加强了我们现有的合作关系,也进一步提升了我们在NAND闪存行业的领导地位,展现了其灵活性和市场策略。通过结合双方优势,我们向前迈出了战略性的一步,以更好地满足由人工智能驱动的先进移动终端存储解决方案日益增长的需求。

稿源:美通社

围观 90
评论 0
路径: /content/2024/100579329.html
链接: 视图
角色: editor
winniewei的头像
winniewei

3月18日,“荣耀春季旗舰新品发布会”在京盛大开幕,作为荣耀首款AI PC的荣耀MagicBook Pro 16全新亮相。这款笔记本电脑新品的推出,不仅是荣耀品牌在AI领域的重要里程碑,也标志着芯海科技EC产品再下一城,实现了公司在PC生态领域的重要突破。

1.png

荣耀MagicBook Pro 16作为荣耀首款AI PC,全面实现了性能、续航、通信、音频、屏幕的行业领先,在硬件性能上取得了显著的平衡,树立了Windows PC体验新标杆。特别值得一提的是,该产品选择搭载了芯海科技高性能EC芯片,助力荣耀AI PC在整机性能上实现更为流畅、高效和可靠的用户体验。

技术创新 助力客户商业成长

技术创新始终是芯海科技的核心竞争力。

芯海32位高性能EC芯片,具有高安全、高扩展、低功耗、易开发等技术特点,且芯海为中国大陆地区唯一进入Intel PCL列表的EC厂商,获得了行业的认可,其整体性能及安全性达到业界先进水平,填补了国内笔记本嵌入式控制器的市场空白,为荣耀MagicBook Pro 16的卓越性能体现,提供了坚实保障。

此外,芯海EC提供了完善的参考代码及开发资料包,为笔记本电脑产品的研发提供了极大便利,帮助终端厂商更快地缩短产品研发周期,降低开发成本,提高研发效率,充分展现了公司在EC领域的深厚技术积累和强大创新力,实现了技术和商业的双重突破。

EC作为服务笔记本电脑的“隐形管家”,承担着笔电的开关机时序、充放电、功耗、安全、键鼠管理等稳定性要求极高的工作任务。自EC诞生以来,每次PC产品重大创新变革的背后,都离不开EC的身影。随着AI PC技术的持续进步和完善,笔电安全防护、电源管理、通信管理的功能迭代,EC作为笔电感知和控制不可或缺的组成部分,将在AI时代,扮演更加重要的角色

2.jpg

目前,芯海科技已完成面向消费市场EC(E20系列)、商用市场EC(E21系列)的全面布局,公司始终坚持以客户为中心,从客户需求出发,始终致力于打造为客户带来价值的产品,确保每一个产品能够精准地满足客户的期待。

芯海建立了符合ISO9001等国际标准的全面质量管理体系,该体系覆盖产品从芯片定义、设计、制造、封装测试到最终量产交付的全生命周期管理,保障产品的高可靠、高性能和高品质。芯海在EC及周边PC产品上不断的积累系统级经验,可快速响应各种客户支持及服务。 

正因如此,芯海的EC芯片已成功应用于荣耀MagicBook Pro 16及全球多家顶级PC品牌的终端产品中,赢得了广泛的市场赞誉。对此芯海并未止步,仍在不断加强产品迭代,推动EC技术创新,并与多家合作伙伴紧密合作,共同研发前沿的EC芯片和解决方案,助力客户打造出引领市场的终端产品。

生态拓展 共创产业无限可能

2019年进军PC领域以来,芯海科技始终致力于构建国际领先,以EC为核心横向拓展到PDHUBBMSHapticPad等的多元化计算外围系列产品的PC生态。

此次芯海科技EC芯片助力荣耀AI PC火热上市,不仅是PC生态布局的重要里程碑,更是公司拓展产业无限可能的新起点。公司将持续深化与英特尔等产业界伙伴的合作,联手推动PC创新产品的落地,助力全球PC供应链健康发展。

未来,芯海科技将继续秉承创新、协作、开放的理念,凭借在模拟信号链和MCU双平台驱动的技术优势,与全球合作伙伴携手共进,共同打造更加完善的PC生态。与此同时,芯海EC作为PC生态核心支柱,也将继续发挥技术领先优势,为更多顶级PC品牌厂商提供坚实有力的技术和生态支持,将为全球用户带来更加出色的产品和服务。

如有相关产品咨询请联系芯海科技:guoxin@chipsea.com(郭工)。

来源:芯海科技

围观 108
评论 0
路径: /content/2024/100579327.html
链接: 视图
角色: editor
winniewei的头像
winniewei

3月20日,2024中国闪存市场峰会(以下简称"CFMS2024")在深圳成功举行,本届CFMS2024以"存储周期 激发潜能"为主题,汇聚了全球存储产业链及终端应用企业,共同探讨新的市场形势下的机遇。

CFMS2024峰会上,江波龙董事长、总经理蔡华波发表了题为《突破存储模组经营魔咒》的演讲,分享公司从"存储模组厂"向"半导体存储品牌企业"全面转型升级的战略布局,以及如何实现从销售模式到用芯服务的模式跨越。

1.jpg

(江波龙董事长、总经理 蔡华波)

蔡华波深入剖析了存储模组厂当前面临的经营痛点。随着市场竞争的加剧和业务模式的先天瓶颈,传统存储模组厂目前的主流经营模式都面临着难以突破20亿美金营收的天花板。为此,江波龙已在技术、产品、供应链整合、品牌以及商业模式等多个维度进行创新布局和转型升级,以突破存储模组厂的经营魔咒。

研发封测一体化

夯实半导体存储技术垂直整合实力

-自研SLC NAND Flash芯片+主控芯片-

蔡华波表示,江波龙坚持自主研发,并投入核心技术,目前已掌握SLC NAND Flash、MLC NAND Flash、NOR Flash芯片设计能力,尤其在SLC NAND Flash芯片方面,已实现大规模的量产。Flash自研芯片的突破,不仅可更好地服务现有客户的存储需求,更能够助力江波龙对Flash底层技术芯片制程工艺等有更为全面且深入的理解,进一步提升了公司整体存储产品质量,以及在存储领域的综合竞争力。

主控芯片在存储产品中的作用举足轻重,其重要性不言而喻。2023年下半年,公司旗下子公司慧忆微电子(WiseMem)推出WM6000(eMMC 5.1控制器)WM5000(SD 6.1存储卡控制器)自研主控芯片,两款产品均采用自研LDPC算法三星28nm先进制程工艺,其性能领先业界。今年,两款自研主控芯片已全面进入了规模产品化阶段。

从NAND Flash芯片到尖端固件算法,再到主控芯片,江波龙已实现了较完整的存储芯片自主设计能力,为公司在存储行业的持续发展和创新奠定坚实基础。同时,江波龙将保持开放合作的态度,持续加强与业界多个主控方案厂商的深入合作与互补配合,全方位满足客户的多样化需求,携手打造更优质的存储产品。

-自有封测制造-

凭借已并购的元成苏州智忆巴西(Zilia),以及自建的中山数据中心存储专线等领先的封测与制造基地,江波龙已构建起自有的高端封装测试与制造中心,全方位布局国内、海外双循环供应链体系,实现从芯片设计、软硬件设计、晶圆加工、封装测试生产制造等各个产业链环节的研发封测一体化,进一步夯实公司半导体存储技术垂直整合实力。目前,Zilia已成功为全球众多头部品牌提供优质服务,同时积极为中国客户提供出海制造解决方案,助力客户在全球市场上展现卓越竞争力。目前,元成苏州已顺利承接公司部分嵌入式存储和工规级、车规级存储的封装测试制造任务,各项工作进展良好。

双品牌高能存储产品

先进技术激发存力觉醒

江波龙深入介绍并在峰会现场演示了公司旗下两大品牌Lexar(雷克沙)FORESEE在存储应用领域的一系列创新技术和产品,全面展现了公司在消费类存储、嵌入式存储、工规/车规级存储、企业级数据存储等多个应用场景中的积极探索和成果突破。

-Lexar创新高端存储卡-

1TB NM Card

2TB microSD Card

205MB/s读速3.0 SD Card

自去年底成功发布512GB容量的NM Card后,Lexar(雷克沙)再次取得产品突破,率先推出1TB的超大容量NM Card版本,可适配多款鸿蒙OS手机/平板电脑卡槽,为用户存储空间扩容。该产品采用了兼容eMMC协议的WM6000自研主控,并借助元成苏州超薄NAND堆叠技术的先进封装工艺,成功实现产品化。随着ITMA协会对中国存储标准和NM Card协议的推广和普及,以及终端设备的不断迭代升级,未来将有更多机型支持这一超大容量NM Card,为用户提供更具效益的手机扩容方案。

Lexar(雷克沙)还面向游戏影像存储应用推出了两款业界领先的高端存储卡。其中,2TB大容量的microSD Card,凭借先进的12Die堆叠技术超薄的研磨切割工艺,克服了封装技术瓶颈,在严格遵循microSD尺寸标准的基础上,实现更高集成度,释放更大的存储空间。另一款SD 3.0存储卡,则以205MB/s / 150MB/s的高速读写成为产品焦点,性能领先行业水平。这款存储卡采用了创新的4Plane直写架构,实现SDIO和NAND-IO双效提速。两款产品均搭载了WM5000自研主控自研固件算法,为用户带来更流畅、更高效的存储卡体验。

-FORESEE QLC eMMC-

随着QLC NAND Flash市场渗透率迅速攀升,江波龙把握市场趋势,率先将先进的3D QLC技术应用于eMMC产品,推出满足终端应用"降本扩容"需求的FORESEE QLC eMMC。该产品同样基于WM6000自研主控、采用独特的QLC算法和自研固件进行开发,经过公司研发团队持续的技术优化,已通过多项内部的严苛测试,并达到可量产状态。在性能和可靠性表现上,该产品已能够与TLC eMMC相媲美;在容量上,除了本次推出的512GB规格外,江波龙也已具备了实现1TB更大容量的技术能力,将为市场提供更多样化选择。

为了满足5G手机存储容量日益增长的需求,公司嵌入式存储产品FORESEE UFS2.2也已正式开启大规模量产出货,为智能终端市场提供高性能、大容量的存储方案。目前,江波龙在嵌入式存储领域已构筑起复合式存储分离式存储相结合的全方位布局,并且已满足AEC-Q100、IATF16949、PPAP等多项严格的车规体系标准,赋能行业创新。

-FORESEE LPCAMM2内存新形态-

在此次CFMS峰会,江波龙还发布了FORESEE LPCAMM2(16GB / 32GB / 64GB),该产品以其独特的128bit位宽设计,实现了内存形态的新突破,有望打通PC和手机存储应用场景。与传统的SODIMM形态相比,LPCAMM2的体积减少了近60%能效提升了近70%功耗减少了近50%,同时其速率高达9600Mbps,远超DDR5 SODIMM的6400Mbps,打破传统的内存速度瓶颈。相较于on board的LPDDR产品,LPCAMM2灵活的模块化外形不仅具备出色的可扩展性,还为终端设备提供了更高的可维护性,助力客户降低售后难度实现更便捷升级。LPCAMM2这一创新形态为AI终端、商用设备、超薄笔记本等对小体积有严格要求的应用场景带来了性能和能效的飞跃性提升,将有望引领内存发展的主流方向。未来,FORESEE LPCAMM2内存产品的容量将随着技术发展和客户需求而逐步提升。

-FORESEE CXL 2.0内存拓展模块-

近年来,江波龙开启重投入模式,在企业级存储研发领域持续加大力度,打造eSSD+RDIMM产品应用组合和数据中心存储制造专线,目前已突破了多个领域的行业标杆客户,实现大规模量产和交付。

随着AI的快速发展,计算密集型工作负载对存储的低延迟、高带宽提出了前所未有的高要求。Compute Express Link®(CXL®)互连技术为数据中心的性能和效率提升开辟了新的途径。在前沿技术趋势的推动下,江波龙在本次CFMS2024率先发布并现场演示了其首款采用自研架构设计的FORESEE CXL 2.0内存拓展模块,支持内存池化共享,为企业级应用场景带来全新突破。该产品通过独特堆叠技术,能够基于16Gb SDP颗粒实现128GB大容量,相比业界同期水平实现成本大幅度下降的优势。

FORESEE CXL 2.0内存拓展模块基于 DDR5 DRAM开发,支持PCIe 5.0×8接口,理论带宽高达32GB/s,可与支持CXL规范E3.S接口的背板和服务器主板实现无缝连接,并减少高昂的内存成本和闲置的内存资源,大幅提高内存利用率,从而有效拓展服务器的内存容量并提升带宽性能,助力HPC、云计算、AI等应用场景释放潜能。

在容量方面,FORESEE CXL 2.0内存拓展模块可实现多种容量选择,包括64GB、128GB、192GB以及正在研发中的512GB,充分满足了用户在不同计算应用中的存储需求。值得一提的是,与市场上主流的32GB和64GB同类型产品相比,FORESEE CXL 2.0内存拓展模块在容量上展现出了显著的优势。目前,FORESEE CXL 2.0内存拓展模块与LPCAMM2产品均已做好全面量产的准备将有序投入生产制造,以满足市场需求。

TCM创新商业模式

提升存储产业综合竞争力

蔡华波强调,江波龙正经历一次重大的经营模式升级。为了给Tier 1客户提供更加稳定供应、高效的存储定制化解决方案服务,江波龙协同合作的上游存储晶圆厂共同提出从传统产品销售模式向TCM(Technologies Contract Manufacturer, 技术合约制造)合作模式转型升级。

在传统销售模式下,存储模组厂首先从存储原厂购买晶圆,经过研发设计、封测制造等多个环节后,再销售给终端客户。上游原厂与下游终端客户因为中间环节繁杂导致沟通"断层",同时也难以高效匹配下游应用市场对多样化、定制化、创新化的存储产品需求。而模组厂,也需提前从原厂采购大量晶圆进行储备,面临产业周期带来的巨大价格波动等挑战。

TCM(技术合约制造)合作模式以实现上游存储晶圆原厂和下游Tier1核心客户高效且直接的供需信息拉通,基于确定性的供需合约,江波龙聚焦存储解决服务平台优势,融合存储主控、固件定制开发、高端封测技术、售后服务、品牌知识产权等能力,基于上游存储晶圆厂或下游Tier1客户的产品需求,高效完成存储产品的一站式交付。从而提高存储产业链从原厂、产品开发、封装测试、产品制造行业应用的效率和效益。

TCM模式以打造新型供需锚定关系为目标,让产业链协同运作从传统的"单向单工模式"升级为"双向双工模式",在该种模式下,原厂可以更及时与下游Tier1客户进行信息对接,观察到真实市场需求,根据市场需求规划产能和资源定价,并在技术投入上更加聚焦晶圆工艺创新和产能提升,而江波龙则将后续的存储产品研发、客户定制化、封测制造与交付等环节进行整合。同时,下游Tier1客户在与原厂前述对接交换机制的基础上,获得存储资源的稳定供应和深度参与定价机制机会,而江波龙则会聚焦为客户提供更加灵活、开放、透明和创新的定制化存储产品和服务,从而最优化的满足原厂和Tier1客户的商业诉求。

江波龙作为国内领先的半导体存储品牌企业,可以提供从存储芯片研发到封测制造全链条产业综合服务,具备在技术、制造、服务、知识产权、质量、资金等多个维度的产业优势和积累,有足够的实力整合从上游原厂到下游应用的复杂中间环节,在助力和服务原厂提高其经营效率、灵活性以及客户满意度的同时,共同为下游应用Tier1终端客户提供更稳定的存储资源供应保障、更灵活的产品定制和技术支持、更完善的综合服务,从而打通价值链的多个环节,共同构建存储资源透明化、技术制造价值化、综合服务定制化、交付效率最大化、交易成本最低化的全新合作生态,提升存储产业综合竞争力。

定制化业务独立运营

服务精准聚焦

蔡华波指出,江波龙原有的传统定制化和销售业务,将交由全资子公司迈仕渡电子(Mestor)全面承接并独立运营,进一步优化公司的整体业务布局,实现多点协同、高效发展。迈仕渡电子专注通用存储器的研发、制造与销售,拥有多样化产品线与独立的生产制造能力,为国内外客户提供专业、高效的OEM/ODM/DMS存储服务

2024年也是江波龙存储事业发展里程的第25年,历经多个阶段的转型和革新,公司已由之前的模组产品模式向存储综合服务模式转变、由销售模式向用芯服务跨越。未来,公司将持续深耕半导体存储领域,力求在经营模式升级、技术创新、品牌成长上取得更多新突破,向着半导体存储品牌企业稳步迈进。

*上述产品数据均来源于江波龙内部测试,实际性能因设备差异,可能有所不同

稿源:美通社

围观 66
评论 0
路径: /content/2024/100579326.html
链接: 视图
角色: editor
winniewei的头像
winniewei

3月19日,Franka Robotics宣布推出 Franka AI Companion,这是一款旨在为机器人领域研究人员提供支持的综合工具。凭借其在硬件和软件集成方面的尖端能力,Franka AI Companion为机器人研究的效率和创新树立了新标准。

1.jpg

2.jpg

Franka AI Companion兼容各种相机等一系列硬件设备和NVIDIA Isaac Manipulator等软件组件,使用NVIDIA Jetson Orin将GPU功率与实时机器人控制无缝集成,无需额外资源,并采用高精度 NVIDIA AI基础模型用于6D姿态估计和跟踪。这些功能于3月18日至21日在美国圣何塞会议中心举行的NVIDIA GTC 2024期间在机器人展位上与SICK一起展示,其中AI Companion与最新一代 SICK Visionary相机模块和NVIDIA AI工具相结合。

"在 Franka Robotics,我们的使命是为研究人员和开发人员提供工具,以增强他们的能力并加速机器人领域的进步。Franka AI Companion体现了这一使命,为他们的设置和执行需求提供简化的解决方案,由NVIDIA Isaac Manipulator提供支持,其中包括高性能的基础模型和模块化功能,可在 NVIDIA Jetson Orin上无缝运行,最终帮助推动创新向前发展。" Franka Robotics 机器人学习主管Johannsmeier表示。

Franka AI Companion 的主要优势包括:

  • NVIDIA GPU加速计算与实时控制的集成:将NVIDIA AI基础模型与实时机器人控制连接起来,提高效率并帮助实现高级应用程序。

  • 简化的研究设置:使用与Docker容器无缝集成的沙盒开发环境,轻松创建、管理和在研究设置之间切换。

  • 应用程序设置共享:在同一实验室内快速传输应用程序设置或与其他机构共享,促进协作并加速研究进展。

  • 扩展功能:与一系列不断扩展的流行硬件设备和软件组件的开箱即用兼容性确保了灵活性和适应不断变化的研究需求。

Franka AI Companion 加入了 Franka Robotics提供的不断发展的集成生态系统,补充了 Franka MATLAB Toolbox 和 Franka ROS 2 等产品。这些协同作用使用户能够最大程度地利用 Franka 机器人强大的数据采集和实时控制功能。

凭借大量用例,包括在不兼容的软件堆栈之间快速切换、快速评估多个ML模型、使用实时视觉伺服进行对象检测,以及将实验相关软件附加到论文中以供审阅,Franka AI Companion必将实现转型机器人研究的前景。

Franka Robotics成立于2016年,是一家位于慕尼黑专注机器人尖端技术研发的公司,曾作为登上德国《时代》杂志封面的50个创新项目之一,并获得了德国未来奖和创新奖。此前,全球智能机器人独角兽企业思灵机器人于2023年11月宣布完成对Franka Robotics的收购。

有关Franka AI Companion及其功能的更多信息,请访问:www.franka.de

稿源:美通社

围观 51
评论 0
路径: /content/2024/100579324.html
链接: 视图
角色: editor
winniewei的头像
winniewei

LeddarTech Holdings Inc.("LeddarTech")(纳斯达克股票代码:LDTC)是一家汽车软件公司,能为高级驾驶辅助系统 (ADAS)、自动驾驶 (AD) 和停车应用提供已获专利的、基于人工智能的颠覆性低级传感器融合和感知软件技术 LeddarVision™。该公司欣喜宣布,其已与 Renesas Electronics America Inc. 签订了长期许可协议,将 LCA2 和 LCA3 可编程芯片系统 (SoC) 产品系列进行商业化推向市场。

1.jpg

LeddarTech_Inc__LeddarTech_Concludes_Licensing_Arrangement_With

LeddarTech 与 Renesas(前身为 IDT)联合开发了 LCA2 和 LCA3 可编程 SoC 产品。LeddarTech 拥有独特的 LiDAR 软件和基于人工智能的低级融合和感知技术,这些是其向汽车原始设备制造商和 1-2 级供应商提供高级驾驶辅助系统和自动驾驶的基础。与 Renesas 签订这一协议是 LeddarTech 向纯汽车软件公司战略过渡的里程碑之一。该公司依托 LeddarVision AI 的低级融合和感知软件,为高级驾驶辅助系统和自动驾驶提供关键支持。在这次转型过程中,LeddarTech 正在与战略合作伙伴及客户合作,希望将其固态 LiDAR 产品和技术转变为许可模式,而与 Renesas 的合作是当前建立的最重要的许可之一。

LeddarTech 总裁兼行政总裁 Frantz Saintellemy 表示:"我很高兴与 Renesas 达成这项许可协议。Renesas 多年来始终是 LeddarTech 的重要战略合作伙伴,该协议将借助我们在开发这些产品方面的联合投资,极大造福我们公司和 LiDAR 市场。通过这一许可协议,Renesas 将充分发挥其全球销售团队和客户群的优势。在未来数年内,LeddarTech 将最大限度地提高我们基础固态 LiDAR 技术资产的价值。" Saintellemy 先生总结道。

关于 LeddarTech

成立于 2007 年的 LeddarTech 是一家总部位于魁北克市的全球软件公司,在蒙特利尔、多伦多和以色列特拉维夫均设有研发中心。公司致力于研发和提供基于人工智能的综合性的底层传感器融合感知软件解决方案,支持 ADAS 、AD 和泊车应用的部署。LeddarTech 的汽车级软件采用了高级人工智能和计算机视觉算法以生成精确的 3D 环境模型,从而实现更明智的决策和更安全的导航。该公司主要为 OEM 和 1-2 级供应商提供高性能、可扩展、经济实惠的技术,助力其高效部署汽车和越野车辆 ADAS 解决方案。

LeddarTech 掌握多项遥感创新,已申请了 150 多项增强 ADAS、AD、泊车功能的专利,其中 80 项已获批。为了让全球出行更安全、高效、经济、可持续,提升车辆对周围环境的感知能力尤为重要,这是 LeddarTech 追求提供最为普及的传感器融合感知软件解决方案的动力所在。

有关 LeddarTech 的更多信息,请访问 www.LeddarTech.com  和 LinkedInTwitter (X)Facebook 以及 YouTube

稿源:美通社

围观 29
评论 0
路径: /content/2024/100579323.html
链接: 视图
角色: editor
winniewei的头像
winniewei

在迄今为止最大规模的 GTC 大会上,NVIDIA 创始人兼首席执行官黄仁勋带来 NVIDIA BlackwellNIM 微服务、Omniverse Cloud API 等发布。

1.jpg

生成式 AI 有望彻底改变它所触及的每一个行业 —— 掌握技术是迎接挑战的关键。

NVIDIA 创始人兼首席执行官黄仁勋发布了全新的 Blackwell 计算平台,并概述了计算能力的提升可为软件、服务、机器人技术、医疗技术等各个方面带来的重大进步。

“加速计算已到达临界点,通用计算已失去动力,”黄仁勋在硅谷巨大的 SAP 中心体育馆对其主题演讲观众说道。GTC 现场聚集了超过 11,000 名与会者,在线观众数以万计。

“我们需要一种全新的计算方式 —— 由此我们才可以继续扩展,继续降低计算成本,并在保证可持续性的同时继续进行越来越多的计算。与通用计算相比,加速计算使每个行业都可以大幅提速。”

2.jpg

黄仁勋站在网球场大小的 40 英尺高 8K 屏幕前,向挤满了首席执行官、开发者、AI 爱好者和企业家的人群发表演讲。

为了推动世界 AI 基础设施实现大规模升级的目标,黄仁勋发布了 NVIDIA Blackwell 平台,该平台具有对万亿参数大语言模型进行实时生成的能力。

黄仁勋介绍了 NVIDIA 推理微服务,即 NVIDIA NIM。这是一种全新的软件打包和交付方式,能够将开发者与数亿个 GPU 连接起来,以部署各种定制 AI。

黄仁勋还介绍了 Omniverse Cloud API,它可以提供先进的模拟能力,将 AI 引入物理世界。

演讲的尾声,黄仁勋进行了精彩演示,讲解了与一些大型企业的合作伙伴关系生态,还详细介绍了超过二十项发布来阐述其愿景,以此为 GTC 2024 的重磅发布画上了圆满的句号。

GTC 大会已经开展了 15 年,从最初在一个本地酒店宴客厅举办,到现在发展成了全球最重要的 AI 大会。本次大会是近五年来首次恢复线下。

今年的大会包含超过 900 场会议,其中包括由黄仁勋主持的有关 Transformer 的专家讨论会,期间将与首批开发该技术的八位先驱们对话。此外,还有超过 300 个展示和 20 多个技术研讨会。

GTC 是一个几乎涉及所有领域的 AI 盛会。在开场致辞中,全球领先的 AI 艺术家 Refik Anadol 带来了惊艳的表演,展示了一座巨大的实时 AI 数据雕塑,屏幕上呈现着绿色、蓝色、黄色和红色的波动状旋涡,翻腾,交织和散落。

黄仁勋在演讲开始时解释说,多模态 AI 的崛起——能够处理由不同模型负责的多样化数据类型——赋予了 AI 更大的适应性和能力。通过增加参数,这些模型可以处理更复杂的分析任务。

但这也意味着对计算能力的需求显著上升。随着这些协作、多模态系统变得更加复杂(参数多达万亿),对先进计算基础设施的需求也随之增加。

“我们需要更大的模型,”黄仁勋表示,“我们将使用多模态数据来训练它,而不仅仅是互联网上的文本。我们将使用文本和图像、图形和图表来训练它,就像我们从电视中学习一样,它也需要从海量视频中学习。”

新一代加速计算

黄仁勋说:“我们需要更大的 GPU”。 Blackwell 平台就是为了应对这一挑战而构建的。他从口袋里掏出一块 Blackwell 芯片,将它与 Hopper 芯片并排举起,后者显得小了一些。

新架构以一位加州大学伯克利分校的数学家 David Harold Blackwell 而命名。他专门研究博弈论和统计学,也是第一位入选美国国家科学院的黑人学者。新架构超越了两年前推出的 NVIDIA Hopper 架构。

Blackwell 在单芯片训练方面的 FP8 性能是其上一代架构的 2.5 倍,在推理方面的 FP4 性能是其上一代架构的 5 倍。它具有第五代 NVLink 互连,速度是 Hopper 的两倍,并且可扩展至 576 个 GPU。

NVIDIA GB200 Grace Blackwell 超级芯片通过 900GB/s 超低功耗的 NVLink 芯片间互连,将两个 Blackwell NVIDIA B200 Tensor Core GPU 连接到 NVIDIA Grace CPU。

黄仁勋举起一块带有系统的电路板说道:“这台计算机是同类计算机中的第一台,能够在这么小的空间容纳如此多的计算量。由于它的内存是连贯的,感觉就像一个幸福的大家庭一起开发一个应用程序。”

为了获得最高的 AI 性能,基于 GB200 的系统可以与今日发布的 NVIDIA Quantum-X800 InfiniBand 和 Spectrum-X800 以太网平台连接,这些平台可提供速度高达 800Gb/s 的高级网络。

3.jpg

“这样我们可以大量地节省能源、网络带宽量和时间。”黄仁勋表示,“未来将是可生成的,这就是为什么这是一个全新的行业。我们的计算方式有本质差异,所以 NVIDIA 为生成式 AI 时代打造了一款全新处理器。”

为了扩大 Blackwell 的规模,NVIDIA 构建了一款名为 NVLink Switch 的新芯片。每个芯片可以以每秒 1.8 TB 的速度连接四个 NVLink,并通过减少网络内流量来消除流量拥塞。

NVIDIA Switch 和 GB200 是黄仁勋所称的 “一个巨型 GPU” ,也是 NVIDIA GB200 NVL72 的关键组件。NVIDIA GB200 NVL72 是一种多节点、液冷、机架级系统,利用 Blackwell 为万亿参数模型提供强力计算,在单个机架中可实现 720 petaflops 的 AI 训练性能和 1.4 exaflops 的 AI 推理性能。

该机器包含 600,000 个零件,重 3,000 磅。黄仁勋在介绍此台机器时说道:“此时此刻,地球上也许只有三台百亿亿次浮点运算机器。而这是一个单一机架中的 1 亿亿次浮点运算 AI 系统。”

此外,NVIDIA 还推出了更强大的新一代 AI 超级计算机 —— 由 NVIDIA GB200 Grace Blackwell 超级芯片提供支持的 NVIDIA DGX SuperPOD,可用于处理万亿参数模型,并具有持续的正常运行时间,以实现超大规模生成式 AI 训练和推理工作负载。

全新 DGX SuperPOD 采用新型高效液冷机架规模架构,采用 NVIDIA DG GB200 系统构建,可在 FP4 精度下提供 11.5 exaflops 的 AI 超级计算能力和 240 TB 的快速内存,并可通过额外的机架进行扩展。

“未来,数据中心将成为 AI 工厂”,黄仁勋说,“AI 工厂的使命是创造收入,同时也创造智能。”

Blackwell 已经受到了各行各业的欢迎,并获得多个行业领导者的支持,其中包括Alphabet 及 Google的首席执行官 Sundar Pichai,Amazon 首席执行官 Andy Jassy,Dell 首席执行官 Michael Dell, Google DeepMind 首席执行官 Demis Hassabis,Meta 首席执行官 Mark Zuckerberg,Microsoft 首席执行官 Satya Nadella,OpenAI 首席执行官 Sam Altman,Oracle 董事长 Larry Ellison和Tesla和xAI 首席执行官Elon Musk。

Blackwell 正在被全球各大云服务提供商、领先的 AI 公司、系统和服务器供应商,以及世界各地的区域云服务提供商和电信公司所采用。

“整个行业都在为 Blackwell 做准备”,黄仁勋表示。

创造软件的新方式

黄仁勋表示,生成式 AI 改变了应用程序的编写方式。

他解释说,未来的公司会将精力放在组装 AI 模型,赋予它们任务,给出工作产品示例,审查计划和中间结果,而不是编写软件。

NVIDIA NIM 软件包是根据 NVIDIA 的加速计算库和生成式 AI 模型构建的。

“未来我们如何构建软件?你不太可能从头开始编写,也不太可能写一大堆 Python 代码或类似的东西,” 黄仁勋说,“很可能你只需要组建一支 AI 团队就够了。”

这些微服务支持行业标准 API,易于连接,可在 NVIDIA 庞大的 CUDA 安装基础上工作,针对新 GPU 进行重新优化,并不断扫描安全漏洞和威胁。

黄仁勋表示,客户可以使用现成的 NIM 微服务,或者 NVIDIA 可以为之构建专属的AI 和 AI 助手,为特定公司所需的模型专业技能提供专门训练,以助力您创建宝贵的新服务。

“企业IT行业正坐在一座‘金矿’上,”黄仁勋说道, “他们拥有多年来创建的所有这些令人惊叹的工具(和数据)。如果他们能把这个‘金矿’变成 AI 助手,就能给用户提供更多可能。”

领先的科技公司已经开始行动。黄仁勋详细介绍了 NVIDIA 如何帮助 Cohesity、NetApp、SAP、ServiceNow 和 Snowflake 构建 AI 助手和虚拟助理。各行各业也在纷纷加入行列。

在电信领域,黄仁勋宣布推出 NVIDIA 6G 研究云,这是一个由 AI 和 Omniverse 支持的生成平台,旨在推动下一个通信时代的发展。它采用 NVIDIA 的 Sionna 神经无线电框架、NVIDIA Aerial CUDA 加速无线电接入网络和 NVIDIA Aerial Omniverse Digital Twin for 6G 构建。

在半导体设计和制造领域,黄仁勋宣布,NVIDIA 正在与 TSMC 和 Synopsys 合作,将其突破性的计算光刻平台 cuLitho 投入生产。该平台将把半导体制造中计算最密集的工作负载加速 40-60 倍。

黄仁勋还宣布了 NVIDIA 地球气候数字孪生。该云平台现已推出,可实现交互式高分辨率模拟,以加速气候和天气预报。

黄仁勋表示,AI 的最大影响将体现在医疗领域,NVIDIA 已经涉足成像系统、基因测序仪器,并与领先的手术机器人公司合作。

NVIDIA 正在推出一种新型生物学软件。 NVIDIA 今天发布了二十多个新的微服务,使全球医疗企业能够在任何地方、任何云上利用生成式 AI 的最新进展。这些微服务可提供先进的成像、自然语言和语音识别,以及数字生物学生成、预测和模拟功能。

Omniverse AI 引入物理世界

下一波 AI 浪潮将是 AI 对物理世界的学习,黄仁勋说道。

黄仁勋表示:“我们需要一个模拟引擎,来以数字方式为机器人呈现世界,这样机器人就有了一个学习如何成为机器人的‘健身房’,我们称这个虚拟世界为 Omniverse。”

因此,NVIDIA 宣布将以 API 形式提供 NVIDIA Omniverse Cloud,从而将全球领先的工业数字孪生应用和工作流创建平台的覆盖范围扩展到整个软件制造商生态系统。

借助五个全新 Omniverse Cloud 应用编程接口(API),开发者能够轻松地将 Omniverse 的核心技术直接集成到现有的数字孪生设计与自动化软件应用中,或是集成到用于测试和验证机器人或自动驾驶汽车等自主机器的仿真工作流中。

为了展示其工作原理,黄仁勋分享了一个机器人仓库的演示——使用多摄像头感知和追踪,看顾工人并协调机器人叉车,在整个机器人堆栈运行的情况下,这些叉车能够实现自动驾驶。

黄仁勋还宣布,NVIDIA 将把 Omniverse 引入 Apple Vision Pro 中,通过新的 Omniverse Cloud API,开发者可以将交互式工业数字孪生流式传输到 VR 头显中。

4.jpg

一些全球大型工业软件制造商正在采用 Omniverse Cloud API,包括 Ansys、Cadence、达索系统旗下 3DEXCITE 品牌、Hexagon、微软、罗克韦尔自动化、西门子和 Trimble 等。

机器人技术

黄仁勋表示:“所有会动的东西都可能成为机器人,汽车行业将是其中的一个重要部分,NVIDIA 的计算平台已经应用在乘用车、卡车、配送机器人和自动驾驶出租车中。”

黄仁勋宣布,世界上最大的自动驾驶汽车公司比亚迪已选择 NVIDIA 的下一代计算平台用于其自动驾驶汽车,在 DRIVE Thor 上构建其下一代电动汽车车队。

为了帮助机器人更好地感知所处环境,黄仁勋还发布了 Isaac Perceptor 软件开发工具包,该工具包具有最先进的多摄像头视觉里程计、3D 重建和占用地图,以及深度感知功能。

为了使机械臂更具适应性,NVIDIA 宣布推出 Isaac Manipulator —— 一个先进的机械臂感知、路径规划和运动学控制库。

最后,黄仁勋宣布了 Project GR00T,这是一个为人形机器人设计的通用基础模型,旨在进一步推动 NVIDIA 在机器人技术和具身智能方面的突破性工作。

为了支持这一努力,黄仁勋推出了一款用于人形机器人的新型计算机 Jetson Thor,它基于 NVIDIA Thor 系统级芯片,并对 NVIDIA Isaac 机器人平台进行了重大升级。

演讲接近尾声之时,黄仁勋展示了来自迪士尼研究院的一对由 NVIDIA 驱动的小型机器人。

黄仁勋表示:“计算机图形学、物理学和AI 是 NVIDIA 的灵魂所在,生成式 AI 时代一切改变都有可能发生。”

更多详情,欢迎观看黄仁勋GTC主题演讲回放

关于 NVIDIA
自 1993 年成立以来,NVIDIA(纳斯达克:NVDA)一直是加速计算领域的先驱。NVIDIA 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算基础设施公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问 https://nvidianews.nvidia.com/

围观 83
评论 0
路径: /content/2024/100579322.html
链接: 视图
角色: editor
winniewei的头像
winniewei

Credo Technology Group Holding Ltd (Nasdaq股票代码:CRDO),是一家提供安全、高速连接解决方案的创新者,能够为数据基础设施市场提供高能效的解决方案以满足数据基础设施市场数据速率和相应带宽需求的增加。Credo很高兴宣布,其专门为解决400G AI/ML后端网络与机架顶部(TOR)交换机间的连接而推出HiWire有源电缆(AEC)的新系列产品。

1.jpg

Credo产品副总裁Don Barnetson表示:“400G AI/ML后端网络在过去一年中发展迅猛,并将网络接口卡(NIC)连接速率也带至单通道112G,这超出了许多客户的网络部署计划。Credo创新的HiWire AEC产品使线缆内置的速率转换功能使沿用传统12.8T TOR成为可能,并且Y型缆配置符合25T及56T TOR连接,可帮助弥合这一差距。” (图示:美国商业资讯)

HiWire AEC新系列产品包括:

  • 用于连接12.8T TOR的400G OSFP-RHS (4x112) 至 400G QSFP-DD (8x56) AEC

  • 用于连接12.8T TOR的400G QSFP112 (4x112)至 400G QSFP-DD (8x56) AEC

  • 用于连接25.6T及51.2T TOR的800G 2xOSFP-RHS (4x112) 至 800G OSFP (8x112) AEC

  • 用于连接25.6T及51.2T TOR的800G 2xQSFP112 (4x112) to 800G OSFP (8x112) AEC

  • 用于连接25.6T及51.2T TOR 的 800G 2xOSFP-RHS (4x112) to 800G QSFP-DD (8x112) AEC

  • 用于连接25.6T及51.2T TOR 的800G 2xQSFP112 (4x112) to 800G QSFP-DD (8x112) AEC

  • 用于连接25.6T及51.2T TOR 的800G 2xQSFP-DD (4x112) to 800G QSFP-DD (8x112) AEC

Credo产品副总裁Don Barnetson表示:“400G AI/ML后端网络在过去一年中发展迅猛,并将网络接口卡(NIC)连接速率也带至单通道112G,这超出了许多客户的网络部署计划。Credo创新的HiWire AEC产品使线缆内置的速率转换功能使沿用传统12.8T TOR成为可能,并且Y型缆配置符合25T及56T TOR连接,可帮助弥合这一差距。”

Credo将于2024年3月26日至28日期间在加州圣地亚哥举行的OFC会展上展示最新的用于400G AI/ML后端网络的HiWire AEC系列产品。我们诚挚的欢迎各位与会者莅临Credo的3601展位参观,了解HiWire新系列产品的更多信息。

产品供应情况

HiWire AEC新系列产品现可出样,并计划于2024年三季度进行量产。

您可点击此产品页面链接,获取更多Credo产品信息

关于Credo

Credo成立于2008年,我们的使命是不断突破数据基础设施市场中每个有线连接的带宽壁垒,提供高速连接解决方案。Credo是提供安全、高速连接解决方案的创新者。随着整个数据基础设施市场对数据速率和相应带宽需求呈指数级增长,Credo的解决方案可提供更低的功耗和更高的成本效用。Credo的创新在缓解系统带宽瓶颈的同时,降低了系统的功耗、提升了系统的安全性和可靠性。Credo的解决方案优化了以太网应用中的光电连接,服务于包括新兴的100G(或Gbps)、200G、400G、800G及新兴的1.6T(或Tbps)端口市场。Credo的产品均基于Credo在串行化/解串行(SerDes)和数字信号处理器(DSP)上的专利技术。Credo的产品主要包括芯片、有源电缆(AEC)以及SerDes Chiplet;IP解决方案主要为SerDes IP许可。

您可访问https://www.credosemi.com或在LinkedIn上关注Credo, 以获取有关Credo的更多资讯。

在 businesswire.com 上查看源版本新闻稿: https://www.businesswire.com/news/home/20240319118090/zh-CN/

围观 52
评论 0
路径: /content/2024/100579319.html
链接: 视图
角色: editor
winniewei的头像
winniewei
  • 亚马逊云科技将提供基于NVIDIA Grace Blackwell GPUAmazon EC2实例和NVIDIA DGX Cloud,以加速构建及运行数万亿参数的规模大型语言模型的性能

  • Amazon Nitro系统、Elastic Fabric Adapter加密,以及与Blackwell加密集成的Amazon KMS密钥管理服务,为客户提供从训练数据到模型权重的端到端控制,为客户在亚马逊云科技上的AI应用提供更强的安全保障

  • “Ceiba项目”——一台完全依托亚马逊云科技搭建、采用DGX CloudAI超级计算机,搭载了20,736GB200 Superchips芯片,能够提供414 exaflops的处理能力,专为NVIDIA自身的AI研发工作设计

  • Amazon SageMakerNVIDIA NIM推理微服务集成,以帮助客户进一步优化在GPU上运行基础模型的性价比

  • 亚马逊云科技与英伟达之间的合作加速了在医疗保健和生命科学领域的AI创新

亚马逊云科技和英伟达宣布,英伟达在2024GTC大会上推出的新一代NVIDIA Blackwell GPU平台即将登陆亚马逊云科技。亚马逊云科技将提供NVIDIA GB200 Grace Blackwell Superchip B100 Tensor Core GPU,这一举措延续了双方长期的战略合作伙伴关系,旨在为客户提供安全、先进的基础设施、软件及服务,助力客户开启新一代生成式AI的能力。

英伟达与亚马逊云科技继续汇聚各自的领先技术,包括具备英伟达最新多节点系统的下一代NVIDIA Blackwell平台和AI软件,以及亚马逊云科技的Nitro系统、具备领先安全性的Amazon KMS密钥管理服务、千万亿比特级的Elastic Fabric AdapterEFA)网络和Amazon EC2 UltraCluster超大规模集群等技术。基于上述技术打造的基础设施和工具,使客户能够在Amazon EC2上以更快速度、更大规模、更低成本地对其构建和运行数万亿参数的大型语言模型(LLMs)进行实时推理,性能相较于配备前一代英伟达GPUEC2实例有显著改进。

亚马逊云科技首席执行官Adam Selipsky表示:我们双方的深入合作可以追溯到13年前,当时我们共同推出了世界上第一个亚马逊云科技上的GPU云实例,而今天我们为客户提供了最广泛的英伟达GPU解决方案。英伟达的下一代Grace Blackwell处理器是生成式AIGPU计算领域的标志性事件。当结合亚马逊云科技强大的EFA网络、Amazon EC2 UltraClusters的超大规模集群功能,以及我们独有的Amazon Nitro高级虚拟化系统及其安全功能时,我们就能够使客户更快、更大规模且更安全地构建和运行具有数万亿参数的大型语言模型。

英伟达创始人兼首席执行官黄仁勋表示:人工智能正在以前所未有的速度推动新应用、新商业模式和跨行业的创新。我们与亚马逊云科技的合作正在加速新的生成式AI能力的发展,并为客户提供前所未有的计算能力,以开创无限可能。

亚马逊云科技与英伟达的新合作将显著加快超万亿参数前沿大型语言模型的训练

亚马逊云科技将提供配置GB200 NVL72的英伟达Blackwell平台,它配备72Blackwell GPU36Grace CPU,通过第五代NVIDIA NVLink™互连。当与亚马逊云科技强大的EFA网络、Amazon Nitro高级虚拟化系统和Amazon EC2 UltraClusters超大规模集群等技术结合时,客户能够轻松扩展至数千个GB200 Superchips。英伟达Blackwell在亚马逊云科技上的应用,使得该平台在应对资源密集型和数万亿参数语言模型等推理工作负载加速方面实现了巨大飞跃。

基于此前搭载英伟达H100Amazon EC2 P5实例的成功(客户短期使用这些实例可通过Amazon EC2 Capacity Blocks for ML功能),亚马逊云科技计划提供配备B100 GPUs新的Amazon EC2实例,并支持在Amazon EC2 UltraClusters中部署以加速超大规模生成式AI的训练和推理。GB200也将在NVIDIA DGX™ Cloud上可用,这是一个在亚马逊云科技上双方共同开发的AI平台,为企业开发者提供了构建和部署先进生成式AI模型所需的专用基础设施和软件。在亚马逊云科技上推出的基于BlackwellDGX Cloud实例将加速前沿生成式AI和超过1万亿参数的大语言模型的开发。

提升AI安全性:亚马逊云科技Nitro系统、Amazon KMSEFA加密与Blackwell加密技术紧密集成

随着AI技术应用越来越广泛,企业需要确信,在整个训练流程中,他们的数据都得到了安全的处理。保护模型权重的安全至关重要,模型权重是模型在训练过程中学习到的参数,对于模型做出预测的能力至关重要。确保模型权重的安全对保护客户的知识产权、防止模型被篡改以及维护模型的完整性都是非常重要的。

亚马逊云科技的AI基础设施和服务已经实现了安全特性,使客户能够控制其数据,并确保数据不会与第三方模型提供者共享。Amazon Nitro系统和英伟达GB200的结合将能够阻止未授权个体访问模型权重,从而把AI安全性提升到新的高度。GB200支持对GPU之间NVLink连接进行物理加密,以及对Grace CPUBlackwell GPU的数据传输进行加密,同时EFA也能够对服务器之间的分布式训练和推理过程的数据进行加密。GB200还将受益于Amazon Nitro系统,该系统将主机CPU/GPUI/O功能卸载至专门的硬件上,以提供更加一致的性能,其增强的安全性可以在客户端和云端全程保护客户的代码和数据在处理过程中的安全。这一独有的功能已经获得了领先的网络安全公司 NCC Group 的独立验证

通过在Amazon EC2上使用GB200,亚马逊云科技将使客户能够使用Amazon Nitro EnclavesAmazon KMS,在其EC2实例旁创建一个可信执行环境。Amazon Nitro Enclaves允许客户使用Amazon KMS控制下的密钥来加密他们的训练数据和权重。从GB200实例内部可以加载安全区(enclave),并且可以直接与GB200 Superchip通信。这使得Amazon KMS能够以加密安全的方式直接与安全区通信,并直接传递密钥材料。然后,安全区可以将该材料传递给GB200,这样做能够保护客户实例中的数据,防止亚马逊云科技操作人员访问密钥或解密训练数据或模型权重,从而赋予客户对其数据的无与伦比的控制权。

“Ceiba项目利用Blackwell在亚马逊云科技上推动英伟达未来生成式AI创新

2023年亚马逊云科技re:Invent大会上宣布的“Ceiba项目,是英伟达与亚马逊云科技合作建造的世界上最快的AI超级计算机之一。这台专为英伟达自身的研究和开发而设的超级计算机,独家托管在亚马逊云科技上。这台首创的拥有20,736GB200 GPU的超级计算机,采用新型NVIDIA GB200 NVL72配置构建,其特有的第五代NVLink将连接10,368NVIDIA Grace CPU。系统通过亚马逊云科技第四代EFA网络进行扩展,为每个Superchip提供高达800 Gbps的低延迟、高带宽网络吞吐量——能够处理高达414 exaflopsAI计算量,与之前计划在Hopper架构上构建Ceiba相比,性能提升了6倍。英伟达的研发团队将利用Ceiba推进大语言模型、图形(图像/视频/3D生成)与仿真、数字生物学、机器人技术、自动驾驶汽车、NVIDIA Earth-2气候预测等领域的AI技术,以帮助英伟达推动未来生成式AI的创新。

亚马逊云科技与英伟达的合作推动生成式人工智能应用开发及医疗健康与生命科学领域的应用进展

亚马逊云科技与英伟达联手,通过Amazon SageMakerNVIDIA NIM推理微服务的整合,提供了高性能、低成本的生成式AI推理解决方案,该服务作为NVIDIA AI企业版的一部分提供。客户可以利用这一组合在Amazon SageMaker中快速部署和运行已预编译且对NVIDIA GPU进行优化的基础模型,缩短生成式AI应用的推出时间。

亚马逊云科技与英伟达还在利用计算机辅助的药物发现领域进行合作拓展,推出了新的NVIDIA BioNeMo™基础模型,用于生成化学、蛋白质结构预测,以及理解药物分子与目标的相互作用。这些新模型将很快在Amazon HealthOmics上提供,这是一个专为帮助医疗保健和生命科学组织存储、查询和分析基因组、转录组及其他组学数据而设计的专用服务。

Amazon HealthOmics和英伟达医疗保健团队还合作推出生成式AI微服务,以推进药物发现、医疗技术和数字健康领域的发展,该服务提供一个新的GPU加速的云端服务目录,涵盖生物学、化学、成像和医疗保健数据,以便医疗企业能够在亚马逊云科技上利用生成式AI的最新成果。

关于亚马逊云科技

自2006年以来,亚马逊云科技(Amazon Web Services)一直以技术创新、服务丰富、应用广泛而享誉业界。亚马逊云科技一直不断扩展其服务组合以支持几乎云上任意工作负载,目前提供超过240项全功能的服务,涵盖计算、存储、数据库、网络、数据分析、机器学习与人工智能、物联网、移动、安全、混合云、媒体,以及应用开发、部署与管理等方面;基础设施遍及33个地理区域的105个可用区,并已公布计划在马来西亚、墨西哥、新西兰、沙特阿拉伯和泰国等新建6个区域、18个可用区。全球数百万客户,包括发展迅速的初创公司、大型企业和领先的政府机构,都信赖亚马逊云科技,通过亚马逊云科技的服务支撑其基础设施,提高敏捷性,降低成本。要了解更多关于亚马逊云科技的信息,请访问:www.amazonaws.cn

稿源:美通社

围观 34
评论 0
路径: /content/2024/100579318.html
链接: 视图
角色: editor
winniewei的头像
winniewei

在2024年CFMS闪存市场峰会上,三星半导体展示了其面向PC、移动端和服务器的多样化创新存储解决方案。三星电子执行副总裁兼解决方案产品工程师团队负责人吴和锡(Hwaseok Oh),发表了题为"与客户同行,共筑创新之路"的演讲。

1.jpg

三星电子执行副总裁兼解决方案产品工程师团队负责人吴和锡(Hwaseok Oh)发表题为“与客户同行,共筑创新之路”演讲

在演讲中,吴和锡强调了推动存储创新的重要性,以及如何通过协同合作克服变革中出现的挑战,并呼吁业界和客户共同携手推动技术进步。峰会上,三星半导体展出了面向移动端的JEDEC最新技术规格的UFS 4.0存储,为加速服务器提供的PM9D3a, 以及基于CXL的创新内存池技术的CMM-D, 和针对AI和MI开发的基于CXL技术的混合式存储解决方案的CMM-H。

在本次演讲中,三星半导体着重介绍了围绕与客户携手合作实现的几个存储领域的技术创新。三星在介绍QLC UFS的技术进展时,要与包括客户在内的生态系统各方参与者开展紧密的合作。继三星在2023年推出QLC UFS以后,现已准备批量生产。虽然QLC技术目前仍然处于早期阶段,但三星QLC性能通过加入全新的TW2.0和HID技术,并且从纵向发力,不断优化主机系统,提升用户应用水平,使QLC产品在实际工作中表现稳定,给用户带来优异的性能。

2.jpg

三星电子执行副总裁兼解决方案产品工程师团队负责人吴和锡(Hwaseok Oh)分享移动,PC,服务器的创新技术和存储解决方案

为了满足日渐增长的端侧(End-to-End)人工智能的需求,实现大语言模型的端侧运行,三星半导体计划提升UFS接口速度并正在研发一款使用UFS 4.0技术的新产品,将通道数量从目前的2路提升到4路。同时,三星半导体也在积极参与UFS 5.0标准的讨论,期望与移动公司和AP公司共同促进UFS 4.0 4通道和UFS 5.0的合作。

3.jpg

UFS 4.0是目前三星封装体积最小、容量高达 1TB的移动存储

在面向PC存储方面,三星半导体介绍了在PCIe 4.0接口环境下表现优异的PM9C1a。

此外,为迎接PCIe5.0时代,三星半导体结合数据中心的先进经验,计划将PCIe 5.0应用于PC存储。

PM9D3a是使用目前三星最先进的PCIe 5.0的固态硬盘,适用于大型数据运算,帮助加速数据中心。 三星半导体准备在多方面为客户提供支持,以帮助PC客户在数据中心部署支持PCIe5.0的SSD。演讲中,三星半导体还提出了FDP技术,即通过控制数据布局来延长设备使用寿命。目前,FDP已经成为当下的解决方案,且已经具备了构建生态系统的四大要素,一是被批准成为NVMe标准,二是主机驱动程序已包含在Linux内核并已分发,三是推出全球首个支持FDP的SSD产品,最后三星开展通过案例研究证明了其在CacheLib应用中的有效性。基于这项技术,三星半导体已经与客户展开合作,并计划通过后续产品提升性能、强化特点提供更多支持,有望构建强大生态系统。

三星半导体还指出,目前搭载了DRAM的CXL产品很受欢迎,已成为新的技术范畴。三星第一代CMM-D搭载了支持CXL2.0的SoC的,计划在2025年发布搭载第二代控制器、容量为128GB的新产品。与此同时,三星还在不断研发同时使用NAND和DRAM的混合式CXL存储模组架构,即针对AI和ML系统使用的CMM-H。

最后三星呼吁客户积极参与高质量的测试数据收集,推动技术进步。 三星半导体将持续与客户紧密合作,共同推动各行业迈向智能化转型的新时代。

关于三星电子

三星以不断创新的思想与技术激励世界、塑造未来。重新定义电视、智能手机、可穿戴设备、平板电脑、数码电器、网络系统、存储、系统集成电路、半导体代工制造及LED解决方案。欲了解更多最新消息,请访问三星新闻中心:http://news.samsung.com

关于2024中国闪存市场峰会

2024中国闪存市场峰会以"存储周期、激发潜能"为主题,共同探讨在供需关系依然充满挑战的大环境下,未来存储市场的变化,以及如何挖掘产业价值、激发潜能,实现存储产业链由"价格"走向"价值"的升级, 这对于存储厂商既是机会也是挑战。值此关键时间窗口,2024中国闪存市场峰会汇聚全球存储产业链及终端应用企业,共同分享和探讨新的市场形势下新机遇与新机会。

稿源:美通社

围观 74
评论 0
路径: /content/2024/100579317.html
链接: 视图
角色: editor
winniewei的头像
winniewei

2024年3月20日,中国半导体旗舰展览SEMICON China揭幕,德国科技巨头贺利氏集团携旗下多个事业部的多项创新产品精彩亮相。其中,贺利氏电子位于E7馆E7000的展台上,展示了创新半导体、功率电子及汽车电子材料解决方案。而相邻的E7008展台上,贺利氏科纳米展示了面向半导体行业的多种石英材料和制品。此外,贺利氏电子化学材料的专家来到现场,介绍多种半导体生产过程中所需的超高纯度特种化学品,如光酸、光引发剂、单体和交联剂等。

贺利氏集团拥有广泛的材料专长,而半导体及电子是重点关注的四大商业平台之一。一方面,多样性的业务组合汇集了广受认可的成熟解决方案,丰富经验遍布晶圆制造和封装测试等两大重要步骤的关键工序;另一方面,集团致力于开发和投资极具潜力的全新材料,携手产业迈向更先进的发展之路。

对此, 贺利氏集团管理委员会成员Steffen Metzger博士表示:“我们相信更好地掌握和利用材料的特性,不但可以帮助客户提升生产效率,而且能够帮助他们拓宽设计思路。事实上,我们有不少专家团队在客户产品迭代的项目初期就受邀参与,携手客户迈向成功。”

例如,半导体先进封装行业需要满足日益复杂精密的电子产品的需求,这些产品广泛用于5G通信、物联网、虚拟现实、智能穿戴设备、电动汽车以及其他消费或工业应用。在“性能更强、尺寸更小”的行业趋势的持续推动下,半导体行业不断突破极限,在提高半导体封装(如系统级封装(SiP))内元件密度的同时缩小整体封装尺寸。采用领先技术的新型Welco AP520 7号粉水溶性印刷锡膏, 专为应对小型化趋势而设计,它可以创造出近零缺陷的可靠微型焊接,是细间距无源器件和倒装芯片贴装的理想之选。

又如,贺利氏石英工艺管,其大法兰采用专利技术生产的微孔不透明OM100材料,阻热性能优于目前市场上任何的同类材料。通过加工,其表面粗糙度能接近于透明材料的水平,密封效果非常好,大量应用于密封要求较高的产品上,使用寿命长,成为晶圆加工环节不可获取的“法宝”。

为了积极响应可持续发展倡议,贺利氏电子推出采用100%再生金制成的键合金线和采用100%再生锡制成的Welco焊锡膏系列产品。通过在产品中加入再生锡或再生金,显著降低能耗和碳足迹,为环境的可持续发展做出贡献。由再生锡配制的焊锡膏和由矿产锡配制的焊膏在质量上并无二致。在加工成最终产品(包括金线和镀金银线)之前,无论是再生金还是矿产金都要经历同样严格的精炼过程,从而确保产品成分一致、特性相同。这项举措,体现了贺利氏对于低碳环保的承诺,以及推进半导体产业链绿色发展的决心。

全球半导体产业在新能源车、5G/6G、自动驾驶、人工智能,包括AIGC、AIPC等领域的蓬勃发展推动下,将形成日益旺盛的市场需求。根据预测,2030年全球半导体销售额有望突破一万亿美元。其中,中国市场体量巨大,增长强劲,成为驱动全球半导体发展的重要引擎之一,尤为引人注目。

作为扎根中国市场五十年的外资企业,贺利氏看好中国半导体市场的发展,持续增加投资,特别是注重加强基础设施建设、提升本土创新研发能力。贺利氏科纳米在辽宁沈阳建设新的集成电路装备用超高纯石英制品生产基地,预计年内投产使用。贺利氏电子在上海的创新中心将迎来六周年庆,并启用新的设施。贺利氏电子还在江苏常熟投资新厂,弥补国内高端金属陶瓷基板产品空白,预计今年秋季开业。贺利氏电子化学材料计划在上海化学工业区投资建设一座半导体化学品的工厂,预计今年5月开工。

贺利氏大中华区总裁兼贺利氏电子中国总经理艾周平博士总结道:“中国是贺利氏最重要的市场之一,而半导体是我们最重要的业务领域之一。我们将聚焦中国半导体客户的最新需求,发挥贺利氏全球与本土创新相结合的优势,提供更多优质高效、绿色低碳和定制化的产品和解决方案,助推中国半导体产业迈向高质量发展的目标。”


关于贺利氏

贺利氏集团是全球知名的家族企业、科技公司,业务多元化,总部位于德国哈瑙。公司起源于1660年成立的一间小药房。贺利氏活跃在贵金属及回收、半导体及电子、医疗健康、工业应用等四大业务领域中,以专业材料和解决方案为客户创造价值。

2022年,贺利氏的总销售收入为291亿欧元,在40个国家拥有17200名员工。贺利氏被评选为“德国家族企业十强”,在全球多个细分市场上位居前列。

中国是贺利氏最重要的市场之一。1974年,贺利氏在香港设立了在华首家公司,此后持续投资、不断发展壮大,迄今在中国拥有20家公司和近3000名员工,服务一批国际和本土的行业龙头企业。

如需了解更多信息,请登陆:www.heraeus.cn


围观 46
评论 0
路径: /content/2024/100579316.html
链接: 视图
角色: editor