ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

OpenVINO 是啥?Open Visual Inference & Neural Network Optimization

2020-05-19 23:07:32  阅读:286  来源: 互联网

标签:OpenVINO Inference Network 英特尔 模型 套件 视觉


从零开始学习。。。

昨天第一次听说这个工具(的确是孤陋寡闻了):

可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件


  OpenVINO工具套件全称是Open Visual Inference & Neural Network Optimization,是Intel于2018年发布的,开源、商用免费、主要应用于计算机视觉、实现神经网络模型优化和推理计算(Inference)加速的软件工具套件。由于其商用免费,且可以把深度学习模型部署在英尔特CPU和集成GPU上,大大节约了显卡费用,所以越来越多的深度学习应用都使用OpenVINO工具套件做深度学习模型部署。

OpenVINO工具套件主要包括:

  • Model Optimizer(模型优化器):用于优化神经网络模型的工具

  • Inference Engine(推理引擎):用于加速推理计算的软件包

通常一个完整的深度学习应用开发流程可以归结为三步:

  1. 用TensorFlow训练模型

  2. 用OpenVINO模型优化器优化模型

  3. 用OpenVINO推理引擎API开发用户应用程序

https://www.jianshu.com/p/64b932c1d5b2


 官方文档:https://docs.openvinotoolkit.org/downloads/cn/I03030-1-Intel_%20Distribution%20of%20OpenVINO_%20Toolkit%20%20Intel_%20Software.pdf

部署高性能深度学习推理

在多种英特尔® 架构上发挥 AI 和计算机视觉的全部潜能,开发并增强各种应用案例,助力医疗与生命科学、零售、工业等领 域快速发展。您的 AI 和计算机视觉应用......现在将可以更快地运行 

使用英特尔® OpenVINO™ 工具套件分发版开发可模拟人类视觉的应用和解决方案。

该工具套件基于卷积神经网络 (CNN),可在英特尔® 硬件(包括加速器)中 扩展工作负载并实现性能最大化。

  • 支持从边缘到云的深度学习推理 
  • 加速 AI 工作负载,包括计算机视觉、音频、语音、语言和推荐系统 
  • 使用通用 API 支持在所有英特尔® 架构和 AI 加速器 — CPU、iGPU、英特尔® Movidius™ 视觉处理单元 (VPU)、FPGA 和英特尔® 高斯和神经加速器(英特 尔® GNA)上实现异构执行 
  • 通过函数库和预优化内核缩短上市时间 
  • 包括面向 OpenCV、OpenCL™ 内核以及其他工业工具和库的优化调用

OpenVINO工具包(ToolKit)主要包括两个核心组件,模型优化器(Model Optimizer)推断引擎(Inference Engine)

 

标签:OpenVINO,Inference,Network,英特尔,模型,套件,视觉
来源: https://www.cnblogs.com/hbuwyg/p/12920215.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有