推动AI民主化,英特尔在行动

在近期的F8开发者大会上,Facebook 正式宣布开源其全新深度学习框架 Caffe2,由于该框架可以将机器学习移动化,用在 iOS、Android 和树莓派上训练和部署模型,一经发布便引起业内高度关注。基于此,英特尔、微软等公司纷纷展开合作,在云端和移动环境两个方面都对 Caffe2 做了优化。这些合作将使机器学习从业者能够使用更复杂的模型快速地进行实验,并部署下一代 AI 增强型的应用和服务。如此,机器学习移动化的价值能更好地得以实现,进一步拓宽人工智能应用场景。 英特尔和Facebook正在携手,把英特尔® MKL函数集成与Caffe2结合。这使Caffe2在英特尔CPU上的性能大大提升。大多数深度学习工作负载同时包含训练和推理,其中推理所需的计算资源总量远高于训练。目前绝大多数推理工作负载都运行在英特尔®至强®处理器上,这一合作大大方便了广大人工智能技术开发者。 事实证明,英特尔® MKL函数集成与Caffe2的结合效果喜人。根据Caffe2上采用了AlexNet拓扑以及英特尔® MKL和Eigen BLAS的性能结果显示,Caffe2在CPU上进行了高度优化,并提供明显更有竞争力的性能。对于小型批处理推理工作负载,专家建议在每个CPU核心上运行一个工作负载,并且并行运行多个工作负载,每个核心一个工作负载。 其实,为了针对各种训练和推理应用进行优化,去年,英特尔在几个深度学习框架上都迅速增加了CPU的支持。这些优化中最核心的一项便是英特尔®数学核心函数库(英特尔® MKL),它使用英特尔®高级矢量扩展CPU指令集(例如英特尔® AVX-512),更好地支持深度学习应用。该函数库的算法能够平均分配数据和任务,充分利用多个核心和处理器。 通过这次与Facebook携手增进Caffe2在英特尔架构上性能的举措不难看出,英特尔一直是积极赋能人工智能开发的领军角色。长期以来,英特尔致力于开源协作,确保客户和合作伙伴在英特尔硬件上拥有出色、简便、完整的 AI 体验。英特尔使数据、培训、工具和智能技术更容易获取,目的是助力人工智能技术的大众化,扩大人工智能的影响力,这些实际上这是英特尔作为AI应用普及推动者,正在积极打造AI时代的新生态的一部分。 在深度学习框架层面,英特尔正在基于X86架构优化各种深度学习框架,让企业迅速能够部署人工智能,比如 Caffe,TensorFlow,Theano 和 Torch 等。在Google对最受欢迎的深度学习框架之一TensorFlow 进行开源后,英特尔发布了 TensorFlow 的性能优化开发者工具包,促进使用 CPU 进行深度学习,强化其在英特尔处理器上的执行效能。双发协作让TensorFlow可以用于所有英特尔CPU核心以改善平行运算、整合高效能函式库如MKL到TensorFlow,并且优化不同网路拓扑的记忆体配置与资料层的运作。 此外,英特尔在 2016年12月开源了基于 Apache Spark 的分布式深度学习框架 BigDL,大大降低普通大数据用户和数据科学家在使用深度学习进行数据分析和构建人工智能应用的门槛。据悉,BigDL 一大优点是它原生地建立在Spark 上,天然地继承了Spark 的可扩展性,并且与现有大数据处理工作流(例如Spark ML pipeline,SparkSQL, Spark Streaming, Dataframes, Structured Streaming 等)无缝集成。用户可以通过 BigDL将深度学习应用编写为标准的 Spark程序,这些程序可以直接在 Spark或Hadoop集群上运行。将BigDL进行开源大大方便了有大量数据需要管理,以及拥有大数据平台(Hadoop/Spark)的分析客户。在短短一个月内,GitHub上已获得 229 个用户克隆 BigDL代码(FORK)和1421个用户收藏(STAR)。 其实,无论是与科研、互联网、电商、生命科学等不同领域生态合作伙伴一起,以英特尔架构(IA)技术、产品和创新,充分满足生物、计算机视觉等多元化的应用创新,还是与Facebook携手优化Caffe 2在英特尔处理器上的运用,开源BigDL等深度学习框架等,抑或是传播AI知识,建立英特尔®Nervana™人工智能研究院——英特尔构建AI生态的初衷,都是要让人工智能应用的门槛降低,大幅拓宽人工智能技术的应用面,让AI早日揭开神秘面纱,顺利落地于实际应用领域。 如今,在私有、公共或混合云中采用人工智能的机会不断增多,这就需要使数据、人才、将信息转化为洞察的工具更容易广泛获取。人工智能技术大众化的道路上,需要迅速改变数据存储孤岛、专家数量少、工具复杂等关键问题。英特尔相信,更开放的行业环境将助推人工智能发展的各环节形成一个良性循环,它能打破发展瓶颈,最终释放AI原力。 推动AI民主化,英特尔在行动。