Plot 计算列车和试验的精度
我有200个训练数据,其中6000个特征和标签为(0,+1),已转换为Plot 计算列车和试验的精度,plot,caffe,training-data,pycaffe,Plot,Caffe,Training Data,Pycaffe,我有200个训练数据,其中6000个特征和标签为(0,+1),已转换为HDF5格式。(像这样,我有77个测试数据) 我正在绘制统计数据,比如迭代的精度。我使用parse_log和gnuplot来实现这一点。现在我的问题是,我需要测试集和列车集的准确性。换句话说,我希望测试阶段将应用于这两个数据库,并因此给我两个精度数字,以便了解这两个曲线是如何演变的。 我的精度层位于 train_val.txt 是: 我在solver.prototxt中的位置是: test_state: { stage
HDF5
格式。(像这样,我有77个测试数据)
我正在绘制统计数据,比如迭代的精度。我使用parse_log和gnuplot来实现这一点。现在我的问题是,我需要测试集和列车集的准确性。换句话说,我希望测试阶段将应用于这两个数据库,并因此给我两个精度数字,以便了解这两个曲线是如何演变的。
我的精度层
位于
train_val.txt
是:
我在solver.prototxt中的位置是:
test_state: { stage: 'test-on-train' }
test_iter: 500
test_state: { stage: 'test-on-test' }
test_iter: 100
test_interval: 500
test_compute_loss: true
base_lr: 0.00001
momentum: 0.9
weight_decay: 0.000005
# The learning rate policy
lr_policy: "inv"
gamma: 0.0001
power: 0.75
# Display every 100 iterations
display: 100
# The maximum number of iterations
max_iter: 65000
# snapshot intermediate results
# solver mode: CPU or GPU
solver_mode: CPU
列车和试验的精度为:
(测试精度)
列车精度为:
我想知道为什么在迭代过程中(在训练阶段)训练精度没有变化。@Shai,我在前一个内积层中有一个输出
test_state: { stage: 'test-on-train' }
test_iter: 500
test_state: { stage: 'test-on-test' }
test_iter: 100
test_interval: 500
test_compute_loss: true
base_lr: 0.00001
momentum: 0.9
weight_decay: 0.000005
# The learning rate policy
lr_policy: "inv"
gamma: 0.0001
power: 0.75
# Display every 100 iterations
display: 100
# The maximum number of iterations
max_iter: 65000
# snapshot intermediate results
# solver mode: CPU or GPU
solver_mode: CPU