Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/347.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/opencv/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python Yolo基于区域输出到openvino的解释脚本_Python_Opencv_Tensorflow_Yolo_Openvino - Fatal编程技术网

Python Yolo基于区域输出到openvino的解释脚本

Python Yolo基于区域输出到openvino的解释脚本,python,opencv,tensorflow,yolo,openvino,Python,Opencv,Tensorflow,Yolo,Openvino,您好,我是OPENCV/CVAT新手,我使用openvino运行自动注释,我想使用YoloV3执行此任务 我需要将Yolo模型转换为opencv/cvat/auto_注释的OpenVINO格式。 要使用自定义模型注释任务,我需要准备4个文件: Model config*.xml-具有网络配置的文本文件。 模型权重*.bin-具有训练权重的二进制文件。 Label map*.json-一个带有Label\u map字典的简单json文件 具有标签号的字符串值的like对象。 解释脚本*.py-用

您好,我是OPENCV/CVAT新手,我使用openvino运行自动注释,我想使用YoloV3执行此任务

我需要将Yolo模型转换为opencv/cvat/auto_注释的OpenVINO格式。

要使用自定义模型注释任务,我需要准备4个文件:

Model config*.xml-具有网络配置的文本文件。 模型权重*.bin-具有训练权重的二进制文件。 Label map*.json-一个带有Label\u map字典的简单json文件 具有标签号的字符串值的like对象。 解释脚本*.py-用于转换净输出的文件 层到可由CVAT处理的预定义结构。这 代码将在受限制的python环境中运行,但是 可以使用一些内置函数,如str、int、float、max、, 最小,射程。 我将Yolo模型转换为OpenVINO格式,并创建了xml和bin文件。我编写了映射lson文件。 现在我需要为Yolo基于区域的输出编写解释python脚本。我该怎么做?
从TysFooSurm到OpenVIO有中断文件吗?< /P> < P>推荐您从YOLO V3C++或Python示例开始。 对于C++:

对于python示例:


类似的讨论可以在

中找到,它现在与CVAT捆绑在一起。可以在repo中找到解释脚本和json文件,如下所示: