Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/341.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 评估训练数据是否使用完整训练数据_Python_Tensorflow_Keras_Deep Learning_Object Detection Api - Fatal编程技术网

Python 评估训练数据是否使用完整训练数据

Python 评估训练数据是否使用完整训练数据,python,tensorflow,keras,deep-learning,object-detection-api,Python,Tensorflow,Keras,Deep Learning,Object Detection Api,在Tensorflow对象检测API中,当eval_training_data设置为True时,评估结果是针对整个训练数据还是针对具有 我正在使用遗留脚本编写代码,以对培训数据和验证数据进行评估。评估应仅对生成的test.tf记录执行。这不应该是模型训练过的东西。对模型不知道的某物进行测试将有力地评估模型的性能 num examples将限制您从评估记录中获取要评估的示例数量。这是1000,重复服用10次。因此,在评价中具有随机性。就像训练中的批处理一样 eval_config: { metr

在Tensorflow对象检测API中,当eval_training_data设置为True时,评估结果是针对整个训练数据还是针对具有


我正在使用遗留脚本编写代码,以对培训数据和验证数据进行评估。

评估应仅对生成的test.tf记录执行。这不应该是模型训练过的东西。对模型不知道的某物进行测试将有力地评估模型的性能

num examples将限制您从评估记录中获取要评估的示例数量。这是1000,重复服用10次。因此,在评价中具有随机性。就像训练中的批处理一样

eval_config: {
 metrics_set: "coco_detection_metrics"
  num_examples: 1000
  # Note: The below line limits the evaluation process to 10 evaluations.
  # Remove the below line to evaluate indefinitely.
  max_evals: 10
}

eval_input_reader: {
  tf_record_input_reader {
    input_path: "path_to_test*.record"
  }
  label_map_path: "path_to_labelmap.pbtxt that you use to train"
  shuffle: false
  num_readers: 1
}

这里的疑问是eval_training_data标志何时设置为True。在此期间,我们处理的num_examples值将是多少。正如我所说的,这取决于要评估的数据量。如果你有10000个图像测试数据,1000个就足够进行10次递归评估了。这将加快评估速度,同时创造随机性。我认为分数为1/10-1/3的测试数据是可以的。测试数据不是问题。主要问题与eval_training_data参数有关,该参数将用于提供对培训数据的评估结果。我知道通常只有测试数据才能进行评估。因为tensorflow的家伙们提供了一个训练数据评估的选项,我想知道它是如何工作的,如果是这样,我可以在训练中使用它。因为,当前的训练曲线是基于对象检测API中的单个步骤和逐步损失的。我想要一个完整的时代。啊,我明白了,我认为你应该提出另一个问题来避免误导。标题应该类似于“在Tensorflow API的纪元结束时添加验证”。在读取train.py并追溯到配置文件的整个过程中,他们设计eval和train config的方式是单独执行的。运行Train.py时将使用Train config,运行eval.py时将使用eval config