Imagination 携手百度飞桨,共推中国人工智能生态建设

作者:电子创新网张国斌

我们已经进入了万物智能互联的时代,人工智能技术成为给千行百业赋能智慧的不二选择,在人工智能应用中,构建一个学习、应用的生态直观重要。美国人工智能领先企业都非常注重打造生态系统,如谷歌的Tensorflow,脸书的pytorch 等,在中国,目前,百度飞桨(PaddlePaddle)受到越来越多开发者以及人工智能上下游企业的青睐。

5月20日,Imagination Technologies在“Wave Summit 2022”大会上宣布:携手百度飞桨(PaddlePaddle)及多家合作伙伴共同发起“硬件生态共创计划”,利用自身的优势技术和市场应用经验共同构建高效的软硬一体平台方案,将百度飞桨软件的先进算法和灵活性与Imagination异构计算IP技术相结合,支持下游芯片及应用开发商在此基础上快速创建全面优化的解决方案。

1653296723(1).jpg

据悉,百度飞桨是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台。截至2022年5月,百度飞桨已经汇聚了477万开发者,创建56万个AI模型,累计服务18万家企事业单位。硬件生态共创计划是飞桨“大航海”计划2.0的重要部分之一。

目前,很多人工智能开发者在实际应用中面临多种挑战,例如在开发阶段,模型实现复杂,开发效率较低;在训练阶段,产业界的数据量大,训练时间长,反复训练困难;在部署阶段,实际产业落地的要求很高,同时多硬件还会带来了很大的部署成本;另外还有产业模型库包含的模型较少,无法满足开发者的应用诉求等。而百度飞桨开发便捷的深度学习框架、超大规模深度学习模型训练技术、多端多平台推理部署引擎和 产业级的开源模型库解决了这些挑战。此外,一些国产AI芯片跟PyTorch和TF不兼容。但却可以兼容百度飞桨,所以,百度飞桨对于推动本土AI应用普及发挥了巨大作用。

1.jpg

Imagination计算业务副总裁Shreyas Derashri表示:“很高兴能够与百度飞桨及众多合作伙伴再次携手,发布‘硬件生态共创计划’,并为业界构建软硬一体的计算方案。2020年,Imagination加入百度飞桨硬件生态圈;2021年,Imagination和百度飞桨在全球人工智能(AI)生态系统方面开展合作。此次合作是双方良好合作的延续,在算力和算法方面优势的深度融合,可为行业提供更优化的解决方案。”

2.png

实际上,随着人工智能技术在各行业的广泛应用及快速发展,业界已从各自独立的硬件算力驱动和算法创新驱动进入到算法和硬件协同创新阶段。在硬件生态共创计划中,合作双方基于百度飞桨(PaddlePaddle)对未来硬件计算平台的需求,结合Imagination (GPU, CPU, AI)异构计算IP技术,从算法模型到计算框架再到半导体IP技术通过联合优化的方法,构建高效灵活的软件栈方案,为芯片厂商提供设计指导和Benchmark参考。面向行业应用共建Model Zoo,为平台和终端客户提供参考方案。这种全新的生态合作模式将为双方的客户及合作伙伴带来更多价值。未来,双方将面向使用Imagination NC-SDK的飞桨开发者共同开发培训课程,进行联合培训认证。

3.jpg

Imagination产品市场总监郑魁在也在大会上做了演讲具体分享了合作细节,他指出目前Imagination已经有一些模型是可以部署在基于Imagination一款4TOPs端侧推理芯片上,双方正在进行持续的优化,下半年会针对某些典型市场应用发布一个联合优化的成果。

展望未来他表示这些模型会部署在更丰富的一些异构平台上面,如大算力平台等来满足高等级智能化应用需求。他透露双方会针对开发者推出培训视频 ,在近期上线。

他强调Imagination全球芯片累计出货量已经超过110亿!是拥有GPU IP 、RISC-V CPU IP以及 AI神经网络加速器 IP的公司,且大多数产品都满足Function Safety功能安全标准。

这三款IP加上Imagination的软件构成了多核异构的解决方案,针对不同的市场应用提供各种高性能、低功耗、高度灵活可扩展的IP组合解决方案,如手机移动方案或是汽车智能驾舱,自动驾驶甚至是数据中心的应用方案等。

目前,异构计算成为芯片设计的下一个重要方向。针对这个趋势, Imagination从三个方向进行创新,一个是针对目前已有的 GPU、CPU和AI 神经网络加速器,持续在多核架构上演进、在性能跟功耗上持续优化。一个是在系统层面,为了消除数据瓶颈,对存储、安全进行创新性优化。还有一个是在软件层面提供了统一、开放,并且标准的工具链,支持标准的 framework操作,这就使开发者可以快速灵活的把他们的应用部署在异构架构上。

他以软件为例,传统上网络模型的部署会分成三个阶段,首先会把在云端训好的模型去转换成一个通用格式,然后通过建图和编译,生成平台硬件相关的一些code。最后把它部署在硬件的执行单元上。

而在Imagination的工具链里,Imagination为开发者提供了更丰富的部署和优化功能。如在adapter之后,通过graph transform,去把 layer进行了调整,让它们对执行单元更友好。再往后通过data profiling工具跟simulation工具,可以去帮助开发者确定最佳的量化策略,满足符合它应用性能和精度的要求。然后在compiler中,Imagination把灵活性开放给开发者,让他们灵活的去定制后端执行单元,如 layer是跑在GPU上还是跑在神经网络加速器上还是跑在 CPU上,这些由开发者决定。

“我们在与飞桨的生态合作项目中,双方就会从模型层一直到飞桨的框架,一直到我们IP的底层软件,沿着这样的一个应用部署的路径,我们双方会进行全栈的优化。同时除了offline的部署方式,我们也会提供runtime的API叫做IMG DNN来满足开发者 online的部署需要。”他指出,“最终我们会跟飞桨一起会推出深度优化的,并且可以非常灵活,拓展性非常强的多核异构平台方案。”

他表示未来Imagination会希望自己的客户或芯片伙伴都参与到飞桨项目中来,

未来我们希望可以跟我们的芯片客户或者是芯片伙伴们一起都参与到“硬件生态共创计划”里,在一些重要应用领域,如自动驾驶,手机以及数据中心等 ,在基于飞桨的框架中,提供高竞争力的国产计算平台方案。

“众人拾柴火焰高”,我注意到还有其他一些芯片公司也参与到百度飞桨项目中,希望本土的人工智能生态日益完善,为智慧化转型助力!

最新文章