All Node List by Editor

winniewei的头像
winniewei

MediaTek宣布与阿里云达成深度合作,双方在天玑9300移动平台上完成通义千问大模型小尺寸版本的端侧部署,该部署可适配天玑8300移动平台,可实现离线状态下即时且精准的多轮人机对话问答。未来,双方将携手打造面向应用开发者和终端设备厂商的生成式AI软硬件生态,基于MediaTek天玑移动平台适配更多参数版本的通义大模型,共同探索面向大众的AI智能体AI Agent)服务场景新机遇。

1.png

MediaTek 无线通信事业部副总经理李彦辑博士表示阿里云的通义系列大模型是AI领域的佼佼者,我们期待通过双方的合作可以为应用开发者和终端客户提供更强大的硬件和软件解决方案,同时促进生成式AI端侧部署以及AI应用、AI智能体生态的快速发展,为用户带来更多令人兴奋的 AI产品体验。

阿里巴巴通义实验室业务负责人徐栋表示:“端侧AI是大模型应用落地的重要场景之一,但面临软硬件难适配、开发环境不完备等诸多挑战。阿里云与MediaTek此次合作,攻克完成了大量底层适配及上层开发的系列技术及工程难题,真正把大模型‘装进’手机芯片中,给业界成功打样端侧AI的Model-on-Chip部署新模式。基于此,我们相信未来开发者会创造出更多新奇、实用的AI应用。”

打样生成式AI端侧部署,软硬一体联合优化提升效率

相较于仅在云端部署生成式AI应用和服务, 端云混合AI可充分利用终端设备的算力,在运营成本、用户信息安全、实时性以及个性化用户体验等方面具备显著优势。基于对行业趋势的一致洞察,MediaTek与阿里云通义实验室开展深度合作,对在天玑移动平台终端设备上运行的通义大模型进行适配和优化,赋能终端设备提供更安全、快速、可靠和差异化的使用体验。

天玑 9300集成MediaTek第七代AI处理器APU 790APU 790内置硬件级的生成式 AI 引擎,支持终端运行 10 亿、70 亿、130 亿、最高可达 330 亿参数的 AI 大语言模型,并支持生成式 AI 模型端侧“技能扩充”技术 NeuroPilot Fusion生成式 AI 处理速度是上一代 AI 处理器的 8 1 秒内可生成图片。此外,MediaTek AI开发平台NeuroPilot构建了丰富的 AI 生态,已适配全球主流的AI大模型,完整的工具链包含对NeuroPilot Fusion LoRA 低秩自适应融合技术的支持,结合MediaTek AI系统的强劲算力,助力开发者能更快地完成模型的优化和转化,显著提升大模型的端侧处理效率,并赋予其更加全面的能力。

通义千问是阿里云自研的LLM基座大模型,目前已推出千亿参数的2.0版本以及开源的720亿、140亿、70亿、40亿、18亿、5亿参数等尺寸,以及视觉理解模型Qwen-VL、音频大模型Qwen-Audio等多模态大模型。通义千问Qwen系列是中国市场率先开源的自研大模型,曾在10多个行业基准评测创下开源模型突出成绩,并登顶全球高影响力的Hugging Face排行榜。目前,通义大模型家族已形成基础大模型及系列行业模型的矩阵,并首批通过国家大模型标准评测,在行业专业AI大模型报告的全部11项测试中,获得6项满分,名列前茅。

MediaTek与阿里云长期保持紧密的合作伙伴关系,双方已完成通义千问大模型小尺寸版本在天玑移动平台的端侧适配,即将透过开发者生态推动该成果广泛普及于端侧AI应用中。此外,MediaTek面向开发者的模型中心和工具链将集成通义千问大模型系列,助力广大开发者可以更便捷地在天玑移动平台上开发基于通义大模型的各类场景应用。

MediaTek携手阿里云通义千问大模型,率先开拓AI 智能体端侧应用新机遇

AI智能体是生成式大模型最激动人心的发展主线,被称为大模型的下一站基于对新机遇的一致理解,双方还宣布启动联合探索AI智能体解决方案计划,通过整合MediaTek天玑移动平台强大的硬件和AI运算能力,以及阿里云通义千问先进的大模型技术和日益完善的开发工具平台,从而支持智能终端在端侧高能效地实现自然语言理解、复杂决策制定以及个性化服务生成,探索打造真正具备情境感知、自主学习和实时交互功能的下一代智能终端应用生态。

未来,通过MediaTek和阿里云的共同努力,用户在家“动动嘴”说出需求,由天玑移动平台和通义大模型驱动的AI 智能体能自动建立并最终达成任务,将智能化的梦想照进现实。同时,广大开发者和终端设备厂商也将由此迎来更广阔的创新机遇。

在生成式AI浪潮下,大模型正成为新一轮科技革命和产业变革的重要驱动力量。MediaTek将持续携手阿里云通义实验室,加速终端侧生成式AI的部署,联合培育生成式AI的应用场景和生态,并共同打造面向未来的AI智能体产品体验,更好地支持千行百业落地AI应用,让科技惠及大众生活。

关于MediaTek 联发科技

MediaTek 是全球无晶圆厂半导体公司,在移动终端、智能家居应用、无线连接技术及物联网产品等市场位居领先地位,一年约有 20 亿台内建 MediaTek 芯片的终端产品在全球各地上市。MediaTek 力求技术创新并赋能市场,为 5G、智能手机、平板电脑、智能电视、语音助手设备、可穿戴设备与车用电子等产品提供高性能低功耗的移动计算技术、先进的通信技术、汽车解决方案以及多媒体功能。MediaTek 致力让科技产品更普及,因为我们相信科技能够改善人类的生活、与世界连接,每个人都有潜力利用科技创造无限可能(Everyday Genius)。了解更多资讯,请浏览:www.mediatek.com

关于阿里云

阿里云创立于2009年,是全球领先的云计算及人工智能科技公司,为200多个国家和地区的企业、开发者和政府机构提供服务。阿里云致力于以在线公共服务的方式,提供安全、可靠的计算和数据处理能力,让计算和人工智能成为普惠科技。了解阿里云更多信息,请访问:www.aliyun.com

围观 46
评论 0
路径: /content/2024/100579556.html
链接: 视图
角色: editor
winniewei的头像
winniewei

美光首个可持续发展卓越中心彰显了公司对中国运营及本地社区的不懈承诺

2024327—— 全球领先的半导体企业 Micron Technology Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)今日宣布其位于西安的封装和测试新厂房已正式破土动工,进一步强化了公司对中国运营、客户及社区的不懈承诺。美光还在奠基仪式上宣布,公司将在西安建立美光首个封装和测试制造可持续发展卓越中心(CoE),推动公司在环境、社会和治理(ESG)方面的合作伙伴关系,实现全球可持续发展目标。

美光于2023年6月宣布在西安追加投资43亿元人民币,其中包括加建这座新厂房,引入全新产线,制造更广泛的产品解决方案,包括但不限于移动DRAM、NAND及SSD,从而拓展西安工厂现有的DRAM封装和测试能力。美光还将在西安工厂投资多个工程实验室,提升产品可靠性认证、监测、故障分析和调试的效率,从而帮助客户加快产品上市时间。这些投资能使美光更好地满足国内外客户的需求。新厂房预计将于2025年下半年投产,并根据市场需求逐步增产。新厂房落成后,美光西安工厂的总面积将超过13.2万平方米(140万平方英尺)。

1.jpg

美光西安新厂房奠基仪式

美光也在推进收购力成半导体(西安)有限公司(力成西安)的资产,并将向力成西安1,200名全体员工提供新的就业合同。新厂房项目还将额外增加500个就业岗位,使美光在中国的员工总数增至4,800余人。

美光总裁兼首席执行官Sanjay Mehrotra表示:“今天进行的新厂房奠基是美光实施全球封装和测试战略的重要一步,彰显了我们对中国客户、运营和团队成员坚定不移的承诺。美光扎根中国20多年来,与客户建立了密切的合作,对此我们深感荣耀。美光在西安追加投资,将进一步助力我们的客户在多个领域进行发展和创新。”

2.jpg

美光总裁兼首席执行官Sanjay Mehrotra致辞

美光西安将成为公司首个封装和测试可持续发展卓越中心,引领技术创新,支持公司在能效、水处理、减排和废弃物管理等领域实现全球可持续发展目标。

美光全球运营执行副总裁 Manish Bhatia 表示:“在为新厂房奠基的同时,我们还承诺在美光西安打造一个半导体封测可持续发展卓越中心,为中国低碳经济和全球半导体绿色供应链添砖加瓦。为此,我们正在部署先进的自动化技术和基于AI的智能解决方案,在美光西安打造一座世界级工厂。”

此外,在陕西省、西安市及西安高新区政府的大力支持下,美光还宣布与全球能源管理和自动化领域的数字化转型专家施耐德电气强强联合,将在可持续发展、智能制造、绿色工厂和双碳管理等领域展开战略合作。

3.jpg

美光与施耐德电气战略合作协议签约仪式

施耐德电气高级副总裁、战略与发展部中国区负责人熊宜表示:“我们很荣幸与全球领先的半导体公司美光达成合作,帮助他们推进可持续发展目标。可持续发展是施耐德电气的战略核心,我们将携手美光,助其首个可持续发展全球卓越中心在西安顺利落成。”

美光西安于2020年获得工业和信息化部(MIIT)“国家级绿色工厂”认证,彰显了美光在可持续运营领域的丰硕成果。新厂房将采用AI智能解决方案来实现高度自动化,厂房设计符合 LEED (能源与环境设计先锋)绿色建筑金级标准。

美光投资中国20多年来,支持本地社区发展一直都是公司运营的重要守则。在奠基仪式上,美光还宣布向中国妇女发展基金会的“母亲水窖”项目捐赠逾1,000万元人民币。该项目将帮助改善中国陕西17个村庄约35,000名居民的饮用水质量,优化供水效率和质量。

4.jpg

美光向中国妇女发展基金会“母亲水窖”项目捐赠逾1,000万元人民币

美光中国区总经理吴明霞表示:“美光力争在全球各地社区成为优秀的企业公民。我们对‘母亲水窖’项目的捐赠将改善当地的饮水质量,每年可补充超过80万立方米水资源。此外,美光与中国妇女发展基金会的合作也体现了我们在全球范围内支持多元、平等和包容的承诺。”

美光在中国的运营版图包括北京、上海、深圳和西安,公司此前已连续六年获得“大中华区最佳职场”殊荣。

关于 Micron Technology Inc.(美光科技股份有限公司)

美光科技是创新内存和存储解决方案的业界领导厂商,致力于通过改变世界使用信息的方式来丰富全人类生活。凭借对客户、领先技术、卓越制造和运营的不懈关注,美光通过 Micron® 和 Crucial® 品牌提供 DRAM、NAND 和 NOR 等多个种类的高性能内存以及存储产品组合。我们通过持续不断的创新,赋能数据经济发展,推动人工智能和 5G 应用的进步,从而为数据中心、智能边缘、客户端和移动应用提升用户体验带来更大机遇。如需了解 Micron Technology, Inc.(美光科技股份有限公司,纳斯达克股票代码:MU)的更多信息,请访问 micron.com

围观 79
评论 0
路径: /content/2024/100579555.html
链接: 视图
角色: editor
winniewei的头像
winniewei

Ansys、是德科技、诺基亚和三星率先使用 NVIDIA Aerial Omniverse 数字孪生、Aerial CUDA 加速的无线接入网络和 Sionna 神经无线电框架来帮助实现电信业的未来

美国加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2024 年 3 月 18 日——  NVIDIA 于今日宣布推出一个 6G 研究平台,该平台为研究人员提供了一种开发下一阶段无线技术的新方法。

1.png

NVIDIA 6G 研究云平台具有开放、灵活和互联的特征,它为研究人员提供了一整套全面的工具, 以推进 AI 应用在无线接入网络 (RAN) 技术。该平台使企业能够加快开发 6G 技术,从而将数万亿台设备与云基础设施连接起来,为建立一个以自动驾驶汽车、智能空间以及各种扩展现实和沉浸式教育体验与协作机器人为依托的超级智能世界奠定基础。

该平台的首批采用者和生态系统合作伙伴包括 Ansys、Arm、苏黎世联邦理工学院、富士通、是德科技、诺基亚、美国东北大学、罗德与施瓦茨公司、三星、软银公司和 Viavi 等。

NVIDIA 电信高级副总裁 Ronnie Vasishta 表示:“随着连接设备数量的大幅增加和新应用的不断涌现,6G 需要大幅提升无线通信的无线频谱效率。实现这一目标的关键在于充分利用 AI、软件定义的全 RAN 参考堆栈和下一代数字孪生技术。”

NVIDIA 6G 研究云平台由以下三个部分组成:

  • 适用于 6G 的 NVIDIA Aerial Omniverse 数字孪生:一个参考应用和开发者示例,可实现从单塔到城市规模的完整 6G 系统的物理精确模拟。它整合了软件定义 RAN 和用户设备模拟器以及逼真的地形和物体属性。借助 Omniverse Aerial数字孪生,研究人员将能够根据特定地点的数据模拟并构建基站算法,并通过实时训练模型来提高传输效率。

  • NVIDIA Aerial CUDA 加速的无线接入网络:一个软件定义的全 RAN 协议堆栈,为研究人员实时自定义、编程和测试 6G 网络带来极大的灵活性。

  • NVIDIA Sionna神经无线电框架:该框架可与 PyTorch 和 TensorFlow 等主流框架无缝集成,利用 NVIDIA GPU 生成、获取海量数据并训练 AI 和机器学习(ML)模型。该框架还包含 NVIDIA Sionna,这一领先的链路级研究工具适用于基于 AI/ML 的无线模拟。

业内顶尖研究人员可以使用 6G 开发研究云平台的所有功能来推进他们的工作。

三星美国研究院高级副总裁  Charlie Zang 表示:“未来  6G 与 AI 的融合有望彻底改变技术格局。这将带来无缝连接和智能系统,它们将重新定义我们与数字世界的交互方式,从而开创一个无与伦比的创新和连接时代。”   

测试和模拟将在下一代无线技术的开发中起到至关重要的作用。该领域的领先提供商正在与NVIDIA 合作,以满足 AI 与 6G 所提出的新要求。

Ansys 5G/6G 和空间项目总监 Shawn Carpenter 表示:“Ansys 致力于通过将先进的 Ansys Perceive EM 求解器无缝集成到Omniverse生态系统中,推进6G研究云的使命。Perceive EM 彻底改变了 6G 系统数字孪生的创建方式。NVIDIA 与 Ansys 技术的融合无疑将为AI赋能的 6G 通信系统铺平道路。”

是德科技通信解决方案事业群总裁兼总经理 Kailash Narayanan 表示:“无线专用设计工具的使用十分有限,但却是构建强大 AI 所必不可少的。是德科技十分高兴能够运用自己的无线网络专业知识来实现 6G 通信网络的下一代创新。”

NVIDIA 6G 研究云平台将这些强大的基础工具整合到一起,使电信公司能够充分解锁 6G 的潜力,为未来的无线技术铺平道路。想要访问该平台的研究人员可注册加入 NVIDIA 6G 开发者计划

关于 NVIDIA

自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算基础设施公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问https://nvidianews.nvidia.com/ 。

围观 130
评论 0
路径: /content/2024/100579553.html
链接: 视图
角色: editor
winniewei的头像
winniewei

Isaac 机器人平台现可为开发者提供全新的机器人训练仿真器、Jetson Thor 机器人计算机、生成式 AI 基础模型和由 CUDA 加速的感知和操作库。

1.jpeg

Project GR00T 是一种多模态人形机器人通用基础模型,作为机器人的大脑,使它们能够学习技能来解决各种任务。

美国加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2024 年 3 月 18 日 —— NVIDIA 于今日发布人形机器人通用基础模型 Project GR00T,旨在进一步推动其在机器人和具身智能方面的突破。

NVIDIA 还发布了一款基于 NVIDIA Thor 系统级芯片(SoC)的新型人形机器人计算机 Jetson Thor,并对 NVIDIA Isaac™ 机器人平台进行了重大升级,包括生成式 AI 基础模型和仿真工具,以及 AI 工作流基础设施。

NVIDIA 创始人兼首席执行官黄仁勋表示:“开发通用人形机器人基础模型是当今 AI 领域中最令人兴奋的课题之一。世界各地的机器人技术领导者正在汇集各种赋能技术,致力于在人工通用机器人领域实现突破。”

GR00T 驱动的机器人(代表通用机器人 00 技术)将能够理解自然语言,并通过观察人类行为来模仿动作——快速学习协调、灵活性和其它技能,以便导航、适应现实世界并与之互动。在 GTC 大会的主题演讲中,NVIDIA 创始人兼首席执行官黄仁勋展示了数台这样的机器人是如何完成各种任务的。

专为人形机器人打造

Jetson Thor 是一个全新的计算平台,能够执行复杂的任务并安全、自然地与人和机器交互,具有针对性能、功耗和尺寸优化的模块化架构。

该 SoC 包括一个带有 transformer engine 的下一代 GPU,其采用 NVIDIA Blackwell 架构,可提供每秒 800 万亿次8位浮点运算 AI 性能,以运行 GR00T 等多模态生成式 AI 模型。凭借集成的功能安全处理器、高性能 CPU 集群和 100GB 以太网带宽,大大简化了设计和集成工作。

NVIDIA 正在为领先的人形机器人公司开发一个综合的 AI 平台,如 1X Technologies、Agility Robotics、Apptronik、波士顿动力公司、Figure AI、傅利叶智能、Sanctuary AI、宇树科技和小鹏鹏行等。

Agility Robotics 联合创始人兼首席机器人官 Jonathan Hurst 表示:“我们正处于历史的转折点,像 Digit 这样以人为中心的机器人将永远改变劳动力市场。现代 AI 将加速发展,为 Digit 这样的机器人铺平道路,在日常生活的各个方面帮助人类。我们很高兴能与 NVIDIA 合作,投资于计算、仿真工具、机器学习环境和其他必要的基础设施,让机器人真正融入人们的日常生活。”

Sanctuary AI 联合创始人兼首席执行官 Geordie Rose 表示:“具身智能不仅有助于解决人类面临的一些最大挑战,还将创造目前超出我们能力范围或想象的创新。如此重要的技术不应该建立在孤岛之上,这就是为什么我们非常重视像 NVIDIA 这样的长期合作伙伴。”

Isaac 平台的重大更新

GR00T 使用的 Isaac 工具还能够为在任何环境中的任何机器人创建新的基础模型。这些工具包括用于强化学习的 Isaac Lab 和用于计算编排服务的 OSMO

训练具身智能模型需要海量的真实数据和合成数据。新的 Isaac Lab 是一个 GPU 加速、性能优化的轻量级应用,基于 Isaac Sim 而构建,专门用于运行数千个用于机器人学习的并行仿真。

为了扩展异构计算的机器人开发工作负载,OSMO 在分布式环境中协调数据生成、模型训练和软硬件在环工作流。

NVIDIA 还发布了 Isaac Manipulator 和 Isaac Perceptor 等一系列机器人预训练模型、库和参考硬件。

Isaac Manipulator 为机械臂提供了卓越的灵活性和模块化 AI 功能,并提供了一系列强大的基础模型和 GPU 加速库。它提供了高达 80 倍的路径规划加速,零样本感知提高了效率和吞吐量,使开发者能够实现更多新的机器人任务的自动化。早期生态系统合作伙伴包括安川电机、泰瑞达旗下子公司优傲、PickNik Robotics、Solomon、READY Robotics 和 Franka Robotics。

Isaac Perceptor 提供了多摄像头和 3D 环绕视觉功能,这些功能正越来越多地被制造业和物流业中的自主移动机器人所采用,以提高效率和更好地保护工人,同时降低错误率和成本。早期采用者包括 ArcBest、比亚迪和凯傲集团等,它们的目标是为物料搬运等操作带来新的自主化水平。

新的 Isaac 平台功能将在下个季度推出。了解有关 Project GR00T 的更多信息。

关于 NVIDIA

自 1993 年成立以来,NVIDIA (纳斯达克: NVDA) 一直是加速计算领域的先驱。NVIDIA 在 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算基础设施公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问https://nvidianews.nvidia.com/

围观 131
评论 0
路径: /content/2024/100579552.html
链接: 视图
角色: editor
winniewei的头像
winniewei

全新 NVIDIA NIM 和 GPU 加速的微服务专为生物、化学、影像和医疗数据开发,并在 NVIDIA DGX 云中运行

美国加利福尼亚州圣何塞 —— GTC —— 太平洋时间 2024 年 3 月 18 日—— NVIDIA 今日推出二十多项全新微服务,使全球医疗企业能够在任何地点和任何云上充分利用生成式 AI 的最新进展。

1.png

全新 NVIDIA 医疗微服务套件包含经过优化的 NVIDIA NIM™ AI 模型和工作流,并提供行业标准应用编程接口(API),可用于创建和部署云原生应用。它们提供先进的医学影像、自然语言和语音识别以及数字生物学生成、预测和模拟功能。

此外,NVIDIA 加速的软件开发套件和工具,包括 Parabricks®、MONAI、NeMo™、Riva、Metropolis,现已通过 NVIDIA CUDA-X™ 微服务提供访问,以加速药物研发、医学影像、基因组学分析等医疗工作流。

这些微服务,其中 25 个已于今天推出,可以加快医疗企业的转型,因为生成式 AI 为制药公司、医生和医院带来了众多的机会。其中包括筛选数万亿种药物化合物以促进医学发展、收集更完善的患者数据以改进早期疾病检测、实现更智能的数字助手等。

研究人员、开发者和医疗从业人员使用这些微服务可以轻松地将 AI 集成到全新的和现有的应用中,并在从云端到本地等任何地点运行这些应用,从而增强他们所从事的生命救助工作。

NVIDIA 医疗业务副总裁 Kimberly Powell 表示:“我们有史以来第一次在计算机中表达生物学和化学的世界,使计算机辅助药物研发成为可能。在我们的帮助下,医疗企业能够轻松构建和管理AI解决方案,以充分利用生成式AI的全部功能和潜力。”

NVIDIA NIM 医疗微服务适用于推理

全新医疗微服务套件中的 NVIDIA NIM 可以为医学影像、医疗科技、药物研发和数字健康等领域日益增加的模型提供经过优化的推理。这些模型可用于生成式生物学和化学以及分子预测工作。NIM 微服务现已通过 NVIDIA AI Enterprise 5.0 软件平台提供。

这套微服务还包含一系列用于药物研发的模型,例如生成式化学模型 MolMIM、蛋白质结构预测模型 ESMFold 以及帮助研究人员了解药物分子如何与靶点相互作用的模型 DiffDock 。VISTA 3D 微服务可加快 3D 分割模型的创建速度。相较于在 CPU 上运行的普通 DeepVariant,Universal DeepVariant  微服务可将基因组分析工作流中的变体识别速度提高 50 倍以上。

领先的计算软件公司 Cadence 正在将用于 AI 引导分子发现和先导化合物优化的 NVIDIA BioNeMo 微服务集成到其用于加速药物研发的 Orion® 分子设计平台中。

借助 Orion,制药公司的研究人员能够生成、搜索包含数千亿种化合物的数据库并建立相关的模型。而 MolMIM 生成式化学模型、AlphaFold-2 蛋白质折叠模型等 BioNeMo 微服务极大增强了  Orion 的设计能力。

Cadence 公司副总裁 Anthony Nicholls 表示:“我们的制药和生物技术客户需要访问用于分子模拟的加速资源。通过利用 BioNeMo 微服务,研究人员可生成根据科学家的特定需求进行优化的分子。”

近 50 家应用程序提供商以及多家生物技术和制药公司与平台正在使用医疗微服务,包括 Amgen、Astellas、DNA Nexus、Iambic Therapeutics、Recursion 和 Terray,以及 V7  等医学影像软件制造商。

Amgen 执行副总裁兼首席技术官 David M. Reese 表示:“生成式 AI 正在改变药物研发,它使我们能够构建先进的模型并将 AI 无缝集成到抗体设计过程中。我们的团队正在利用这项技术研发下一代药物,而这些药物将为患者带来最大价值。”

改善患者与临床医生的互动

生成式 AI 正在改变患者护理的未来。Hippocratic AI 正在开发针对特定任务的生成式 AI 医疗代理,其由该公司专注于安全的医疗大语言模型(LLM)提供支持,与 NVIDIA Avatar 云引擎(ACE)微服务相连并将使用 NVIDIA NIM 实现低延迟推理和语音识别。

这些 AI 医疗代理与患者对话,完成预约、术前提醒、出院后随访等工作。

Hippocratic AI 联合创始人兼首席执行官  Munjal Shah 表示:“借助生成式 AI,我们可以满足医疗行业最迫切的一些需求,帮助缓解普遍存在的人员短缺问题,提供更多高质量的医疗服务,同时改善患者的治疗效果。NVIDIA 的技术堆栈对于实现对话速度和流畅性至关重要,而后者对于在患者与 Hippocratic 生成式 AI 医疗代理之间建立自然的情感联系不可或缺。”

Abridge  正在构建一个 AI 驱动的临床对话平台。该平台可生成临床笔记草稿,每天为临床医生节省多达三个小时的时间。想要将嘈杂环境中的原始音频转换成文稿,需要多项AI技术之间的无缝协作:语言识别、转录、校正和说话人识别(diarization)都必须在几秒钟内完成,对话必须根据每句话中所包含的医疗信息的种类进行构建,并且需要应用强大的语言模型将相关证据转化为概要。该系统可将临床对话实时转化为高质量的诊后文档。

Flywheel 创建的模型可转换成微服务。该公司基于云的集中式平台为生物制药公司、生命科学组织、医疗提供商和专业医学中心提供支持,帮助他们识别、整理和训练医学影像数据,从而缩短获得洞察的时间。

Flywheel 首席产品官 Trent Norris 表示:“在医疗技术飞速发展的今天, NVIDIA 生成式 AI 微服务与 Flywheel 平台的整合是一次变革性的飞跃。借助这些先进的工具,我们不仅增强了我们在医学影像和数据管理方面的能力,还极大加速了医学研究和患者护理成果。 Flywheel  的 AI Factory 由 NVIDIA 打造的前沿 AI 解决方案提供支持,能够随时随地满足医疗客户的需求,助力推动数字医疗和生物制药领域的发展。”

供应情况

开发者可以访问 ai.nvidia.com 试用 NVIDIA AI 微服务,并通过在 NVIDIA认证系统上运行的NVIDIA AI Enterprise 5.0 部署生产级NIM微服务,其提供商包括戴尔科技、慧与、联想和超微等以及 AWS、谷歌云、Microsoft Azure 和 Oracle Cloud Infrastructure 等领先的公有云平台。此外,其还可在 NVIDIA DGX 云 上试用。

更多信息,请在 3月18 日至 21 日期间线上参观 GTC NVIDIA 展台,还可以观看 NVIDIA 创始人兼首席执行官黄仁勋的主题演讲回放

关于 NVIDIA

自 1993 年成立以来,NVIDIA (NASDAQ: NVDA) 一直是加速计算领域的先驱。NVIDIA 1999 年发明的 GPU 驱动了 PC 游戏市场的增长,并重新定义了现代计算机图形,开启了现代 AI 时代,正在推动跨市场的工业数字化。NVIDIA 现在是一家全栈计算基础设施公司,其数据中心规模的解决方案正在重塑整个行业。更多信息,请访问https://nvidianews.nvidia.com/ 。

围观 71
评论 0
路径: /content/2024/100579551.html
链接: 视图
角色: editor
winniewei的头像
winniewei

以更低的功耗和成本在各种应用中高效地实现更高质量的音频流

芯原股份(芯原,股票代码:688521.SH)今日宣布其低功耗蓝牙整体IP解决方案已全面支持蓝牙技术联盟(Bluetooth SIG)发布的LE Audio规范,其中包括通过了LE Audio协议栈和LC3编解码器的认证。该方案适用于手机、包括真无线立体声(TWS)耳机在内的蓝牙耳机、音箱及其他广泛的音频应用场景。认证详情可在蓝牙技术联盟的官方网站上搜索该解决方案的合格设计ID号(206187)获取。

LE Audio是蓝牙技术联盟基于蓝牙5.2及以上版本规范推出的新一代蓝牙音频技术标准,旨在提供更高质量的音频体验。芯原的低功耗蓝牙整体IP解决方案包含射频IP、基带IP和软件协议栈,已通过蓝牙5.3认证。该方案基于低功耗蓝牙技术(BLE),具有更低的功耗,并采用同步通道(Isochronous Channels)传输技术实现更小的音频传输延迟和更优的信号质量。此外,该方案还支持Auracast™广播音频和多重串流音频(Multi-Stream Audio)等LE Audio的创新蓝牙功能。

芯原低功耗蓝牙整体IP解决方案集成了芯原自主研发的LC3编解码器,可实现实时、低功耗且低失真的音频处理,并支持16位、32位定点处理和32位浮点处理等多种计算精度,以及所有的LE Audio的音频规格配置,以满足不同应用场景的需求。该LC3编解码器针对芯原的ZSP数字信号处理器(DSP),以及Arm Cortex-M和RISC-V等主流处理器进行了深度优化,占用极小的内存和CPU资源,可轻松移植到其他MCU和DSP。它可以单独进行授权,为客户提供灵活的集成选项;与芯原BLE控制器及协议栈集成后,还可为客户提供完整的LE Audio软硬件解决方案,极大地简化了高性能音频产品的开发流程。

“凭借多年在蓝牙技术领域的不断耕耘,我们基于自有的IP和物联网嵌入式软件平台,设计出了针对不同市场需求的硬件参考设计和应用软件解决方案。此次获得LE Audio全部功能认证将进一步赋能我们的客户,使其能够以更低的功耗和成本来更高效地开发下一代音频产品,加快产品上市进程。芯原高级副总裁、定制芯片平台事业部总经理汪志伟表示,未来,芯原将大力拓展LE Audio新应用场景,为客户带来更丰富的解决方案,我们也期待看到客户利用芯原的方案推出更多创新的LE Audio产品,共同推动蓝牙音频技术和市场的发展。”

关于芯原

芯原微电子(上海)股份有限公司(芯原股份,688521.SH)是一家依托自主半导体IP,为客户提供平台化、全方位、一站式芯片定制服务和半导体IP授权服务的企业。在芯原独有的芯片设计平台即服务(Silicon Platform as a Service, SiPaaS)经营模式下,通过基于公司自主半导体IP搭建的技术平台,芯原可在短时间内打造出从定义到测试封装完成的半导体产品,为包含芯片设计公司、半导体垂直整合制造商(IDM)、系统厂商、大型互联网公司和云服务提供商在内的各种客户提供高效经济的半导体产品替代解决方案。我们的业务范围覆盖消费电子、汽车电子、计算机及周边、工业、数据处理、物联网等行业应用领域。

芯原拥有多种芯片定制解决方案,包括高清视频、高清音频及语音、车载娱乐系统处理器、视频监控、物联网连接、智慧可穿戴、高端应用处理器、视频转码加速、智能像素处理等;此外,芯原还拥有6类自主可控的处理器IP,分别为图形处理器IP、神经网络处理器IP、视频处理器IP、数字信号处理器IP、图像信号处理器IP和显示处理器IP,以及1,500多个数模混合IP和射频IP。

芯原成立于2001年,总部位于中国上海,在中国和美国设有7个设计研发中心,全球共有11个销售和客户支持办事处,目前员工已超过1,800人。

了解更多信息,请访问:www.verisilicon.com

围观 26
评论 0
路径: /content/2024/100579550.html
链接: 视图
角色: editor
winniewei的头像
winniewei

3月28日,阿里云与知名半导体公司MediaTek联合宣布,通义千问18亿、40亿参数大模型已成功部署进天玑9300移动平台,可离线流畅运行即时且精准的多轮AI对话应用,连续推理功耗增量不到3W,实现手机AI体验的大幅提升。这是通义大模型首次完成芯片级的软硬适配,仅依靠终端算力便能拥有极佳的推理性能及功耗表现,标志着Model-on-Chip的探索正式从验证走向商业化落地新阶段。

1.png

端侧AI是大模型落地的极具潜力的场景之一。利用终端算力进行AI推理,可大幅降低推理成本、保证数据安全并提升AI响应速度,让大模型可以更好地为用户提供个性化体验。然而,要将大模型部署并运行在终端,需完成从底层芯片到上层操作系统及应用开发的软硬一体深度适配,存在技术未打通、算子不支持、开发待完善等诸多挑战。

据了解,通义千问18亿参数开源大模型,在多个权威测试集上性能表现远超此前SOTA模型,且推理2048 token最低仅用1.8G内存,是一款低成本、易于部署、商业化友好的小尺寸模型。天玑9300集成MediaTek第七代AI处理器APU790,生成式AI处理速度是上一代AI处理器的8倍。

阿里巴巴通义实验室业务负责人徐栋介绍称,阿里云与MediaTek在模型瘦身、工具链优化、推理优化、内存优化、算子优化等多个维度展开合作,实现了基于AI处理器的高效异构加速,真正把大模型“装进”并运行在手机芯片中,给业界成功打样端侧AI的Model-on-Chip部署新模式。

2.png

图:在天玑9300设备上,可离线完成基于通义千问大模型的AI多轮会话

基于天玑9300芯片,通义千问18亿参数大模型在推理方面表现出了极佳的性能与功耗表现,推理时CPU占有率仅为30%左右,RAM占用少于2GB,推理速度超过20tokens/秒,系列指标均达到业界领先水平,可在离线环境下流畅实现多轮AI对话。据了解,相关成果将以SDK的形式提供给手机厂商和开发者。

此外,双方团队也已完成了通义千问40亿参数大模型与天玑9300的适配,未来还将基于天玑适配70亿等更多尺寸大模型,“打样”并支持开发更多AI智能体及应用。

MediaTek无线通信事业部副总经理李彦辑博士表示:“阿里云的通义系列大模型是AI领域的佼佼者,我们期待通过双方的合作可以为应用开发者和终端客户提供更强大的硬件和软件解决方案,同时促进生成式AI的端侧部署以及AI应用、AI智能体生态的快速发展,为用户带来更多令人兴奋的AI产品体验。”

当天,阿里云与MediaTek宣布启动联合探索AI智能体解决方案计划,整合MediaTek天玑移动平台的AI算力及阿里云通义千问的大模型能力,为开发者和企业提供更完善的软硬联合开发平台,以更好支持智能终端在端侧高能效地实现自然语言理解、复杂决策制定以及个性化服务生成,探索打造真正具备情境感知、自主学习和实时交互功能的下一代智能终端应用生态。

通义大模型已在各行业广泛落地,包括钉钉、淘宝、一汽红旗、央视网、浙江大学等众多应用、企业及机构。“淘宝问问”基于通义千问实现了全新的交互体验以及更精准的推荐;阿里云与中国一汽联合打造的大模型应用GPT-BI已率先落地,可结合企业数据自动生成分析图表。

围观 61
评论 0
路径: /content/2024/100579549.html
链接: 视图
角色: editor
winniewei的头像
winniewei

LeddarTech Holdings Inc. ("LeddarTech")(纳斯达克:LDTC)是一家汽车软件公司,为高级驾驶辅助系统 (ADAS)、自动驾驶 (AD) 和停车应用提供基于人工智能的颠覆性低级传感器融合和感知软件技术 LeddarVision™。该公司欣然宣布将作为嘉宾参展商和演讲嘉宾,出席 Arm Holdings plc(纳斯达克ARM)举办的 Embedded World 2024 展览和会议。

LeddarTech 将于 2024 年 4 月9 日至 11 日,在 Embedded World 展览和会议上正式加入 Arm Holdings plc;此前两家行业领导者于 2024 年 3 月 13 日宣布,将采用最新的 Arm Automotive Enhanced® (AE) 技术以启用其 LeddarVision 技术。在 Embedded World 活动期间,LeddarTech 将展示其尖端技术,重点介绍两家公司之间的协同效应如何致力于推动汽车行业的发展。该演示说明了 LeddarTech 和 Arm 为使原始设备制造商和一级供应商能够高效利用 Arm 最新的 AE 计算技术和软件解决方案,所做的共同努力。该合作伙伴关系与 LeddarVision 相结合,旨在加快部署支持人工智能 (AI) 的 ADAS 和自动驾驶功能。

活动日期: 2024 年 4 月 9 日至 11 日

地点: 德国纽伦堡,纽伦堡展览中心

Arm Holdings plc 展位位置: 4 号展厅,4-504 号展位

LeddarTech 展示了 基于人工智能的先进传感器融合和感知软件 LeddarVision,以及尖端的 Arm AE 技术。该演示将重点介绍屡获殊荣的LeddarVision Front Entry (LVF-E) 前视融合和感知堆栈,这堆栈专为入门级 SAE 2/2+ 级高速公路辅助ADAS应用而设计,符合 5 星的 NCAP 2025/GSR 2022 标准。这种创新的解决方案由德州仪器的 TDA4VM-Q1 处理器提供支持,突显了领先技术的无缝集成。

LeddarTech 呈现: 4 月 10 日的星期三,下午 2 点,LeddarTech 战略合作伙伴关系总监 Heinz Oyrer,将在 Arm 展位上发表 15 分钟的演讲,题为 "伙伴关系与进展:关于与 Arm 合作克服 ADAS 挑战的见解。" 重点将放在与客户需求保持一致、建立牢固的合作伙伴关系,以及将创新作为前进道路的关键支柱上。

关于 LeddarTech

成立于 2007 年的 LeddarTech 是一家总部位于魁北克市的全球软件公司,在蒙特利尔、多伦多和以色列特拉维夫均设有研发中心。公司致力于研发和提供基于人工智能的综合性的底层传感器融合感知软件解决方案,支持 ADAS 、AD 和泊车应用的部署。LeddarTech 的汽车级软件采用了高级人工智能和计算机视觉算法以生成精确的 3D 环境模型,从而实现更明智的决策和更安全的导航。该公司主要为 OEM 和 1-2 级供应商提供高性能、可扩展、经济实惠的技术,助力其高效部署汽车和越野车辆 ADAS 解决方案。

LeddarTech 掌握多项遥感创新,已申请了 150 多项增强 ADAS、AD、泊车功能的专利,其中 80 项已获批。为了让全球出行更安全、高效、经济、可持续,提升车辆对周围环境的感知能力尤为重要,这是 LeddarTech 追求提供最为普及的传感器融合感知软件解决方案的动力所在。

有关 LeddarTech 的更多信息,请访问 www.LeddarTech.com 和 LinkedInTwitter (X)Facebook 以及 YouTube

稿源:美通社

围观 39
评论 0
路径: /content/2024/100579548.html
链接: 视图
角色: editor
winniewei的头像
winniewei

《 Omdia半导体总体竞争分析工具 》报告(Omdia CLT)揭示了半导体行业的下滑,收入从2022年的5,977亿美元下降至2023年的5,448亿美元,跌幅9%。这一下降是在两年创纪录的增长之后发生的,突显了半导体市场的周期性。

1.jpg

半导体总收入

"新冠疫情时期开始的长期上升趋势已经结束。在疫情期间半导体需求激增,导致市场短缺之后,情况发生了逆转。由于宏观经济因素,需求疲软,而半导体组件供应有所增加" Omdia半导体研究高级分析师Cliff Leimbach评论道。

2023年,尽管半导体行业整体低迷,但人工智能已成为该行业的重要增长动力,专注于这一领域的公司从中受益。英伟达是这一领域的明显赢家,其半导体收入自2022年翻了一番多,2023年达到490亿美元。英伟达的发展轨迹突显了这一成就,因为在2019年疫情之前,其半导体收入还不足100亿美元。尽管英伟达是人工智能的最大受益者,但值得注意的是,英伟达并不是唯一一家利用这一趋势的公司。

"英伟达半导体收入的快速增长使其成为2023年收入第二大半导体公司,仅次于英特尔。2022年的行业领导者三星在2023年下滑至第三位,因为其内存收入比2021年下降了近一半"Leimbach补充道。

与GPU集成以促进人工智能的高带宽内存(HBM)也出现了强劲的需求,SK海力士在这一领域处于领先地位,其他主要内存制造商也在进军这一领域。尽管内存市场在2022年整体下滑,但在2023年全年,HBM市场呈现了强劲的年增长率,增幅127%。Omdia预测,HBM可能在2024年创下更高的增长率,预估达到在150-200%之间,预计将引领内存市场的增长。

2023年,车载领域在半导体市场的影响力更大,收入增长超过15%,达到750亿美元。电动汽车的增长和智能汽车的集成推动了这一领域对半导体的需求,约占整个半导体市场的14%。

经济低迷对主要内存制造商产生了显著影响,按营收计算,这些制造商传统上都是排名前几位的半导体公司。此前,从2017年到2021年,三星电子、SK海力士和美光科技都位列收入前5位。然而,在严峻的内存市场条件下,三星电子在2023年排名第三,SK海力士排名第六,美光科技排名第十二。

关于Omdia

Omdia,作为Informa Tech的一部分,是一家专注于科技行业的领先研究和咨询集团。凭借对科技市场的深入了解,结合切实可行的洞察力,Omdia将赋能企业做出明智的增长决策。要了解更多信息,请访问www.omdia.com

2.jpg

前20家公司 - Omdia CLT

稿源:美通社

围观 72
评论 0
路径: /content/2024/100579547.html
链接: 视图
角色: editor
winniewei的头像
winniewei

3月26日,浪潮信息与英特尔正式宣布,浪潮信息"源2.0系列基础大模型"已和最新的英特尔® 酷睿™ Ultra处理器平台完成适配,本地推理速度提升100%。企业可以在全新的英特尔商用客户端AI PC上,使用AI PC大模型效率工具"YuanChat"快速本地化部署和运行"源2.0"大模型, 以更快的访问速度、更高的性能和更好的数据安全控制,轻松完成自动编程、商业数据计算、公文写作等任务,释放大模型在企业应用场景中的生产力和创新力

1.jpg

  • 安全灵活高效,YuanChat基于英特尔® 酷睿™ Ultra 处理器打造商用AI PC效率工具

2024年是 "大模型落地应用的元年",AI PC(人工智能个人电脑),作为一种能够在本地运行大模型及AIGC应用的PC终端,已经成为AI实现规模化扩展及应用落地的重要载体。英特尔基于酷睿 Ultra 处理器强悍的 CPU+GPU+NPU 三大 AI 引擎,为商用客户端AI PC提供强劲性能,满足经济、物理、数据保密这三大生成式AI on AI PC 法则,可支持200亿规模大语言模型的本地化运行,加速大模型应用落地。

浪潮信息与英特尔合作,针对"源2.0系列基础大模型",实现酷睿Ultra AI PC平台推理优化,并推出为AI PC而生的大模型效率工具"YuanChat"。浪潮信息"源2.0系列基础大模型"作为首个全面开源的千亿参数模型,包含1026亿、518亿、21亿等三种参数规模。"YuanChat"是基于"源2.0系列基础大模型"设计的应用工具,旨在以对话形式调用大模型,帮助用户完成数据计算、公文写作、编程设计、知识问答、会议纪要、文本总结与摘要等任务导向型应用,真正实现重塑工作模式,提高生产力水平。

2.jpg

基于酷睿 Ultra AI PC上所部署的"YuanChat",用户能够流畅地使用"源2.0-2B模型(Yuan2-2B-Februa-hf)"。作为业界最强的小规模语言模型,"源2.0-2B模型"具有领先的自动编程、数值计算和逻辑推理能力,在Python编程测试(Humaneval)、数学计算测试(GSM8K)中展现出超越ChatGPT3.5及其他百亿(>10B)参数模型的评测结果,已成为最具竞争力的开源可商用模型。

  • 在编程方面,"YuanChat"提供强大的自动编程、代码分析、代码优化与测试用例生成能力,支持Python、C++、Java等多种编程语言,每分钟可生成50+行参考代码,10分钟即可开发出小型软件项目;

  • 在数据分析领域,"YuanChat"同样可以完成复杂的数学计算与问题推理,能够满足企业在不同场景下的复杂数据计算需求;

  • 在文本创作领域,"YuanChat"支持十余种公文写作,可协助完成智能问答、会议纪要、文本摘要等高级文本处理任务,这意味着 "YuanChat" 不仅能够生成标准的公文,还能够理解和处理复杂的文本信息,提取关键信息,大大提高了文本创作的效率和质量。

基于英特尔商用客户端AI PC强大的独立运算能力,"YuanChat"能解决数据传输过程中的延迟问题与泄露风险,能够实现更高的数据安全性、性能和控制权。同时,"YuanChat"支持离线状态下的自主操作,这使得终端用户能够摆脱网络限制,在任何时间、任何地点都能够进行创造性的工作,享受更灵活的大模型交互体验。

在英特尔商用客户端AI PC上,可以基于BigDL-LLM大模型加速库实现对"YuanChat"的模型量化处理,进一步提高模型的可移植性并加快计算速度,减少资源占用,弥合终端有限的算力与对高精度模型和实时智能应用的需求之间的差距。实测数据显示,在处理复杂任务时,"YuanChat"在保证精度的同时,本地推理效率及性能提升达到100%,进一步降低了企业应用大模型的成本。

  • 共建AI PC 应用,惠及千行百业智能变革

未来,浪潮信息与英特尔将持续携手构建活跃的AIPC生态。双方将联合基于英特尔® 酷睿™ Ultra处理器平台进行"源2.0系列基础大模型"的进一步适配与优化,不断完善"YuanChat"应用系统,将大模型和商用平台的生产力、安全性、可管理性和稳定性有机结合,开拓商用 AI PC 更多的新应用、新场景、新形态,帮助企业用户在PC端打造更加安全、流畅、易用的大模型效率工具,惠及企业提升效率,赋能世界的智能化变革。

稿源:美通社

围观 69
评论 0
路径: /content/2024/100579546.html
链接: 视图
角色: editor