Python 评估训练数据是否使用完整训练数据
在Tensorflow对象检测API中,当eval_training_data设置为True时,评估结果是针对整个训练数据还是针对具有Python 评估训练数据是否使用完整训练数据,python,tensorflow,keras,deep-learning,object-detection-api,Python,Tensorflow,Keras,Deep Learning,Object Detection Api,在Tensorflow对象检测API中,当eval_training_data设置为True时,评估结果是针对整个训练数据还是针对具有 我正在使用遗留脚本编写代码,以对培训数据和验证数据进行评估。评估应仅对生成的test.tf记录执行。这不应该是模型训练过的东西。对模型不知道的某物进行测试将有力地评估模型的性能 num examples将限制您从评估记录中获取要评估的示例数量。这是1000,重复服用10次。因此,在评价中具有随机性。就像训练中的批处理一样 eval_config: { metr
我正在使用遗留脚本编写代码,以对培训数据和验证数据进行评估。评估应仅对生成的test.tf记录执行。这不应该是模型训练过的东西。对模型不知道的某物进行测试将有力地评估模型的性能 num examples将限制您从评估记录中获取要评估的示例数量。这是1000,重复服用10次。因此,在评价中具有随机性。就像训练中的批处理一样
eval_config: {
metrics_set: "coco_detection_metrics"
num_examples: 1000
# Note: The below line limits the evaluation process to 10 evaluations.
# Remove the below line to evaluate indefinitely.
max_evals: 10
}
eval_input_reader: {
tf_record_input_reader {
input_path: "path_to_test*.record"
}
label_map_path: "path_to_labelmap.pbtxt that you use to train"
shuffle: false
num_readers: 1
}
这里的疑问是eval_training_data标志何时设置为True。在此期间,我们处理的num_examples值将是多少。正如我所说的,这取决于要评估的数据量。如果你有10000个图像测试数据,1000个就足够进行10次递归评估了。这将加快评估速度,同时创造随机性。我认为分数为1/10-1/3的测试数据是可以的。测试数据不是问题。主要问题与eval_training_data参数有关,该参数将用于提供对培训数据的评估结果。我知道通常只有测试数据才能进行评估。因为tensorflow的家伙们提供了一个训练数据评估的选项,我想知道它是如何工作的,如果是这样,我可以在训练中使用它。因为,当前的训练曲线是基于对象检测API中的单个步骤和逐步损失的。我想要一个完整的时代。啊,我明白了,我认为你应该提出另一个问题来避免误导。标题应该类似于“在Tensorflow API的纪元结束时添加验证”。在读取train.py并追溯到配置文件的整个过程中,他们设计eval和train config的方式是单独执行的。运行Train.py时将使用Train config,运行eval.py时将使用eval config