Python 减少CNN模型中的验证损失
问题是,我得到了更低的训练损失,但非常高的验证精度。验证的准确性也非常低。我如何解决这个问题?我曾尝试将下降值增加到0.9,但损失仍然要高得多。我也试着用线性函数来激活,但没有用 请帮忙Python 减少CNN模型中的验证损失,python,tensorflow,machine-learning,Python,Tensorflow,Machine Learning,问题是,我得到了更低的训练损失,但非常高的验证精度。验证的准确性也非常低。我如何解决这个问题?我曾尝试将下降值增加到0.9,但损失仍然要高得多。我也试着用线性函数来激活,但没有用 请帮忙 如前所述,在没有看到数据的情况下很难给出好的建议 我会尝试以下方法: -删除maxpooling层之后的下拉列表 -去除一些致密层 -在稠密的 如果仍然过拟合,则在密集层之间添加衰减 编辑: 在我看到损失和精度图后,我建议如下: 最高优先级是获取更多数据 然后使用数据扩充甚至增加您的数据集 如果额外的数据没有帮
如前所述,在没有看到数据的情况下很难给出好的建议 我会尝试以下方法: -删除maxpooling层之后的下拉列表 -去除一些致密层 -在稠密的 如果仍然过拟合,则在密集层之间添加衰减 编辑: 在我看到损失和精度图后,我建议如下:
这个问题太广泛和不清楚,无法给你一个具体而好的建议。例如,我们需要有关您的数据集的信息。学习曲线是什么样的?你能分享一下培训期间培训和验证损失的情况吗?我同意@FelixKleineBösing所说的,我还要补充一点,这可能是离题的。@FelixKleineBösing我使用的是各种作物图像的自定义数据集,每个文件夹中有50个图像。我关注的农作物共有7类。@ChinmayShendye我们还需要一个损失的地块,不仅仅是精确性。在某些情况下,特别是在多类分类中,损失可能会减少,而准确度也会降低。@ChinmayShendye,那么每个类有50张图像?总共350张图片?我认为这是一种减少数据量的方法,可以得到一个通用模型,该模型能够以很高的精度对验证/测试集进行分类。在这种情况下,获取更多数据对我很有帮助@ChinmayShendye尼斯:)@ChinmayShendye如果你将来有任何类似的问题,请在这里问他们:我可以请你指导我实施上述模型的重量衰减吗?@JapeshMethuku当然可以。创造一个新的问题,我会帮助你。
import tensorflow as tf
import tensorflow.keras
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Dropout, Activation, Flatten, Conv2D, MaxPooling2D
import pickle
import numpy as np
from keras.models import model_from_json
from keras.models import load_model
import matplotlib.pyplot as plt
# Opening the files about data
X = pickle.load(open("X.pickle", "rb"))
y = pickle.load(open("y.pickle", "rb"))
# normalizing data (a pixel goes from 0 to 255)
X = X/255.0
# Building the model
model = Sequential()
# 3 convolutional layers
model.add(Conv2D(32, (3, 3), input_shape = X.shape[1:]))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Conv2D(64, (3, 3)))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Conv2D(64, (3, 3)))
model.add(Activation("relu"))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dropout(0.9))
# 5 hidden layers
model.add(Flatten())
model.add(Dense(128))
model.add(Activation("relu"))
model.add(Dense(128))
model.add(Activation("relu"))
model.add(Dense(128))
model.add(Activation("relu"))
model.add(Dense(128))
model.add(Activation("relu"))
model.add(Dense(128))
model.add(Activation("relu"))
# The output layer with 7 neurons, for 7 classes
model.add(Dense(13))
model.add(Activation("softmax"))
# Compiling the model using some basic parameters
model.compile(loss="sparse_categorical_crossentropy",
optimizer="adam",
metrics=["accuracy"])
# Training the model, with 40 iterations
# validation_split corresponds to the percentage of images used for the validation phase compared to all the images
print("X = " + str(len(X)))
print("y = " + str(len(y)))
history = model.fit(X, y, batch_size=32, epochs=1000, validation_split=0.1)
# Saving the model
model_json = model.to_json()
with open("model.json", "w") as json_file :
json_file.write(model_json)
model.save_weights("model.h5")
print("Saved model to disk")
model.save('CNN.model')
# Printing a graph showing the accuracy changes during the training phase
print(history.history.keys())
plt.show()
plt.plot(history.history['accuracy'])
plt.plot(history.history['loss'])
plt.title('model accuracy')
plt.ylabel('accuracy')
plt.xlabel('epoch')
plt.legend(['train', 'validation'], loc='upper left')
plt.show()