Python 减少CNN模型中的验证损失

Python 减少CNN模型中的验证损失,python,tensorflow,machine-learning,Python,Tensorflow,Machine Learning,问题是,我得到了更低的训练损失,但非常高的验证精度。验证的准确性也非常低。我如何解决这个问题?我曾尝试将下降值增加到0.9,但损失仍然要高得多。我也试着用线性函数来激活,但没有用 请帮忙 如前所述,在没有看到数据的情况下很难给出好的建议 我会尝试以下方法: -删除maxpooling层之后的下拉列表 -去除一些致密层 -在稠密的 如果仍然过拟合,则在密集层之间添加衰减 编辑: 在我看到损失和精度图后,我建议如下: 最高优先级是获取更多数据 然后使用数据扩充甚至增加您的数据集 如果额外的数据没有帮

问题是,我得到了更低的训练损失,但非常高的验证精度。验证的准确性也非常低。我如何解决这个问题?我曾尝试将下降值增加到0.9,但损失仍然要高得多。我也试着用线性函数来激活,但没有用

请帮忙


如前所述,在没有看到数据的情况下很难给出好的建议

我会尝试以下方法: -删除maxpooling层之后的下拉列表 -去除一些致密层 -在稠密的

如果仍然过拟合,则在密集层之间添加衰减

编辑: 在我看到损失和精度图后,我建议如下:

  • 最高优先级是获取更多数据
  • 然后使用数据扩充甚至增加您的数据集
  • 如果额外的数据没有帮助,则进一步降低神经网络的复杂性(但我认为,随着数据的增加,训练会减慢,验证损失也会在更长的时期内减少)

  • 这个问题太广泛和不清楚,无法给你一个具体而好的建议。例如,我们需要有关您的数据集的信息。学习曲线是什么样的?你能分享一下培训期间培训和验证损失的情况吗?我同意@FelixKleineBösing所说的,我还要补充一点,这可能是离题的。@FelixKleineBösing我使用的是各种作物图像的自定义数据集,每个文件夹中有50个图像。我关注的农作物共有7类。@ChinmayShendye我们还需要一个损失的地块,不仅仅是精确性。在某些情况下,特别是在多类分类中,损失可能会减少,而准确度也会降低。@ChinmayShendye,那么每个类有50张图像?总共350张图片?我认为这是一种减少数据量的方法,可以得到一个通用模型,该模型能够以很高的精度对验证/测试集进行分类。在这种情况下,获取更多数据对我很有帮助@ChinmayShendye尼斯:)@ChinmayShendye如果你将来有任何类似的问题,请在这里问他们:我可以请你指导我实施上述模型的重量衰减吗?@JapeshMethuku当然可以。创造一个新的问题,我会帮助你。
    import tensorflow as tf
    import tensorflow.keras
    from tensorflow.keras.models import Sequential
    from tensorflow.keras.layers import Dense, Dropout, Activation, Flatten, Conv2D, MaxPooling2D
    import pickle
    import numpy as np
    from keras.models import model_from_json
    from keras.models import load_model
    import matplotlib.pyplot as plt
    
    # Opening the files about data
    X = pickle.load(open("X.pickle", "rb"))
    y = pickle.load(open("y.pickle", "rb"))
    
    # normalizing data (a pixel goes from 0 to 255)
    X = X/255.0
    
    # Building the model
    model = Sequential()
    # 3 convolutional layers
    model.add(Conv2D(32, (3, 3), input_shape = X.shape[1:]))
    model.add(Activation("relu"))
    model.add(MaxPooling2D(pool_size=(2,2)))
    
    model.add(Conv2D(64, (3, 3)))
    model.add(Activation("relu"))
    model.add(MaxPooling2D(pool_size=(2,2)))
    
    
    model.add(Conv2D(64, (3, 3)))
    model.add(Activation("relu"))
    model.add(MaxPooling2D(pool_size=(2,2)))
    model.add(Dropout(0.9))
    
    # 5 hidden layers
    model.add(Flatten())
    
    model.add(Dense(128))
    model.add(Activation("relu"))
    
    model.add(Dense(128))
    model.add(Activation("relu"))
    
    model.add(Dense(128))
    model.add(Activation("relu"))
    
    model.add(Dense(128))
    model.add(Activation("relu"))
    
    model.add(Dense(128))
    model.add(Activation("relu"))
    
    # The output layer with 7 neurons, for 7 classes
    model.add(Dense(13))
    model.add(Activation("softmax"))
    
    # Compiling the model using some basic parameters
    model.compile(loss="sparse_categorical_crossentropy",
                    optimizer="adam",
                    metrics=["accuracy"])
    
    # Training the model, with 40 iterations
    # validation_split corresponds to the percentage of images used for the validation phase compared to all the images
    
    print("X = " + str(len(X)))
    print("y = " + str(len(y)))
    
    history = model.fit(X, y, batch_size=32, epochs=1000, validation_split=0.1)
    
    # Saving the model
    model_json = model.to_json()
    with open("model.json", "w") as json_file :
        json_file.write(model_json)
    
    model.save_weights("model.h5")
    
    print("Saved model to disk")
    
    model.save('CNN.model')
    
    # Printing a graph showing the accuracy changes during the training phase
    print(history.history.keys())
    
    plt.show()
    
    plt.plot(history.history['accuracy'])
    
    plt.plot(history.history['loss'])
    
    plt.title('model accuracy')
    
    plt.ylabel('accuracy')
    
    plt.xlabel('epoch')
    
    plt.legend(['train', 'validation'], loc='upper left')
    
    plt.show()