Synopsys嵌入式视觉处理器IP让机器学习应用的神经网络性能翻两番

selinazhang 提交于 周二, 07/04/2017
Synopsys嵌入式视觉处理器IP让机器学习应用的神经网络性能翻两番

增强的DesignWare EV6x系列可为实时视觉处理提供高达每秒4.5 TeraMAC的计算能力

新思科技(Synopsys, Inc.,纳斯达克股票代码:SNPS)日前宣布:已经增强了DesignWare® EV6x Vision Processor中的卷积神经网络(CNN)引擎,以应对高性能嵌入式视觉应用越来越高的视频分辨率和帧率要求。在实施16nm FinFET制程技术时,通常条件下,CNN引擎可提供高达每秒4.5 TeraMAC的计算能力,其性能是以前的Synopsys CNN引擎的4倍。它还支持系数和特征映射压缩/解压缩,以降低数据带宽要求,降低功耗。视觉CPU从一个向量DSP扩展到四个向量DSP,可与CNN引擎并行运行,从而为高级驾驶辅助系统(ADAS)、视频监控、增强现实和虚拟现实、同步定位与建图(SLAM)等一系列高性能嵌入式应用提供最大的吞吐量。

Morpho US, Inc.副总裁Toshi Torihara表示:“在神经网络中,嵌入式视觉应用核心的技术需求需要提供将高精度和高性能与低功耗和小面积相结合的解决方案。DesignWare EV6x Vision Processor独特地结合了向量DSP和可编程CNN引擎,支持设计人员在其嵌入式设备中实施视觉功能,该嵌入式设备的性能效率高于基于CPUGPU的替代方案。”

DesignWare EV6x处理器系列集成了标量、向量DSPCNN处理单元,可进行高度准确、快速的视觉处理。EV6x支持所有卷积神经网络,包括AlexNetVGG16GoogLeNetYoloFaster R-CNNSqueezeNetResNet等受欢迎的神经网络。设计人员可以在EV6x12CNN引擎上运行原本为32位浮点硬件准备的CNN训练图形,从而在维持相同的检测精度时显著降低其设计的功耗和面积。在使用16-nm FinFET制程技术实施时(最糟的情况下),引擎提供高达每秒每瓦2,000GMAC的能效。EV6xCNN硬件还支持为8位精度训练的神经网络,以利用内存带宽较低、图形类型功耗要求较低的优势。

为了简化应用软件开发,有一套全面的工具和软件支持EV6x处理器。最新版本DesignWare ARC® MetaWare EV Development Toolkit包括CNN映射工具,它能分析使用CaffeTensorflow等受欢迎的框架训练的神经网络,并自动生成用于可编程CNN引擎的可执行文件。为了尽可能灵活和防止过时,该工具还能在视觉CPUCNN资源间分配计算,以支持新兴的全新神经网络算法以及客户特定的CNN层。结合基于OpenVX™OpenCVOpenCL C嵌入式视觉标准的软件开发工具,MetaWare EV Development Toolkit允许设计人员拥有加速嵌入式软件开发所需的全套工具。

Synopsys IP营销副总裁John Koeter表示:“随着高性能神经网络在人工智能应用中变得更加普及,设计人员需要硬件技术和软件技术才能按时提供支持视觉的SoC。凭借经过硅验证的EV6xVision Processor的性能和功能增强,设计人员可以更有效地设计和部署基于机器学习的应用,使这些应用具有在市场中脱颖而出所需的性能和能效。”

可用性与资源

含可选嵌入式CNN引擎的DesignWare EV61EV62EV64处理器计划于20178月发售。MetaWare EV Development Toolkit现已发售。对套件的CNN映射工具中TensorFlow框架的支持计划于201710月提供。

有关Synopsys的嵌入式视觉处理器的更多信息,请访问:DesignWare EV6x Processor系列

相关文章