Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Tensorflow 使用ssd_inception_v2在不同分辨率上进行训练_Tensorflow_Object Detection - Fatal编程技术网

Tensorflow 使用ssd_inception_v2在不同分辨率上进行训练

Tensorflow 使用ssd_inception_v2在不同分辨率上进行训练,tensorflow,object-detection,Tensorflow,Object Detection,数据集包含不同大小的图像。 预训练的砝码以300x300分辨率进行训练。 我正在widerface数据集上进行培训,其中的对象小到15x15 问题1。我想以800x800分辨率进行训练我需要手动调整所有图像的大小还是由Tensorflow自动完成 我正在使用以下命令进行培训: python3 /opt/github/models/research/object_detection/legacy/train.py --logtostderr --train_dir=/opt/github/obje

数据集包含不同大小的图像。 预训练的砝码以300x300分辨率进行训练。 我正在widerface数据集上进行培训,其中的对象小到15x15

问题1。我想以800x800分辨率进行训练我需要手动调整所有图像的大小还是由Tensorflow自动完成

我正在使用以下命令进行培训:

python3 /opt/github/models/research/object_detection/legacy/train.py --logtostderr --train_dir=/opt/github/object_detection_retraining/wider_face_checkpoint/ --pipeline_config_path=/opt/github/object_detection_retraining/models/ssd_inception_v2_coco_2018_01_28/pipeline.config
python3 /opt/github/models/research/object_detection/model_main.py --num_train_steps=200000  --logtostderr --model_dir=/opt/github/object_detection_retraining/wider_face_checkpoint/ --pipeline_config_path=/opt/github/object_detection_retraining/models/ssd_inception_v2_coco_2018_01_28/pipeline.config
问题2。我还尝试使用model_main.py对其进行训练,但在1000次迭代之后,每次迭代都会对数据集进行评估

我正在使用以下命令进行培训:

python3 /opt/github/models/research/object_detection/legacy/train.py --logtostderr --train_dir=/opt/github/object_detection_retraining/wider_face_checkpoint/ --pipeline_config_path=/opt/github/object_detection_retraining/models/ssd_inception_v2_coco_2018_01_28/pipeline.config
python3 /opt/github/models/research/object_detection/model_main.py --num_train_steps=200000  --logtostderr --model_dir=/opt/github/object_detection_retraining/wider_face_checkpoint/ --pipeline_config_path=/opt/github/object_detection_retraining/models/ssd_inception_v2_coco_2018_01_28/pipeline.config
第三季度。此外,如果您能建议除mobilenet和inception之外我应该使用的任何实时人脸检测模型,请提出建议


谢谢。

Q1。不,您不需要手动调整大小。见详细答案

问题2。你说的1000次迭代是指步骤,对吗?(迭代计算为数据集的一个完整周期。)通常,模型在一定时间后(例如10分钟)执行评估。因此,每10分钟保存一次检查点,并在评估集上对模型进行评估


第三季度。带有mobilenet的SSD型号是快速探测器之一,此外,您可以尝试使用YOLO型号进行实时检测

扩展第2季度。可以通过修改配置文件来禁用模型_main.py?的评估。在字段
eval
下的配置文件中,您可以尝试添加
eval\u interval\u secs:9999999
,以便计算间隔非常大。有人试过这个,但效果不好。另一个解决方案是减少保存检查点的频率(每次保存检查点后都会执行评估),因此我的建议是在
train
字段中更改
每小时保存一次检查点:5000
。是关于更改评估频率的另一个讨论。