Plot 计算列车和试验的精度

Plot 计算列车和试验的精度,plot,caffe,training-data,pycaffe,Plot,Caffe,Training Data,Pycaffe,我有200个训练数据,其中6000个特征和标签为(0,+1),已转换为HDF5格式。(像这样,我有77个测试数据) 我正在绘制统计数据,比如迭代的精度。我使用parse_log和gnuplot来实现这一点。现在我的问题是,我需要测试集和列车集的准确性。换句话说,我希望测试阶段将应用于这两个数据库,并因此给我两个精度数字,以便了解这两个曲线是如何演变的。 我的精度层位于 train_val.txt 是: 我在solver.prototxt中的位置是: test_state: { stage

我有200个训练数据,其中6000个特征和标签为(0,+1),已转换为
HDF5
格式。(像这样,我有77个测试数据)

我正在绘制统计数据,比如迭代的精度。我使用parse_log和gnuplot来实现这一点。现在我的问题是,我需要测试集和列车集的准确性。换句话说,我希望测试阶段将应用于这两个数据库,并因此给我两个精度数字,以便了解这两个曲线是如何演变的。 我的
精度层
位于

train_val.txt

是:

我在solver.prototxt中的位置是:

    test_state: { stage: 'test-on-train' }
    test_iter: 500
    test_state: { stage: 'test-on-test' }
    test_iter: 100
    test_interval: 500
    test_compute_loss: true
    base_lr: 0.00001
    momentum: 0.9
    weight_decay: 0.000005
    # The learning rate policy
    lr_policy: "inv"
    gamma: 0.0001
    power: 0.75
    # Display every 100 iterations
    display: 100
    # The maximum number of iterations
    max_iter: 65000
    # snapshot intermediate results
    # solver mode: CPU or GPU
    solver_mode: CPU
列车和试验的精度为:

(测试精度)

列车精度为:


我想知道为什么在迭代过程中(在训练阶段)训练精度没有变化。

@Shai,我在前一个内积层中有一个输出
    test_state: { stage: 'test-on-train' }
    test_iter: 500
    test_state: { stage: 'test-on-test' }
    test_iter: 100
    test_interval: 500
    test_compute_loss: true
    base_lr: 0.00001
    momentum: 0.9
    weight_decay: 0.000005
    # The learning rate policy
    lr_policy: "inv"
    gamma: 0.0001
    power: 0.75
    # Display every 100 iterations
    display: 100
    # The maximum number of iterations
    max_iter: 65000
    # snapshot intermediate results
    # solver mode: CPU or GPU
    solver_mode: CPU