Tensorflow keras中的val_损失是平均值还是总和?

Tensorflow keras中的val_损失是平均值还是总和?,tensorflow,machine-learning,keras,Tensorflow,Machine Learning,Keras,我正在使用Keras训练一名ANN。训练本身由指挥部完成: history=model.fit(x_train,y_train,batch_size=32,epochs=500,verbose=1,validation_split = 0.2 ) #train on the noise (not moshe) fit=model.predict(x_test) loss = history.history['loss'] val_loss = history.history['val_loss'

我正在使用Keras训练一名ANN。训练本身由指挥部完成:

history=model.fit(x_train,y_train,batch_size=32,epochs=500,verbose=1,validation_split = 0.2 ) #train on the noise (not moshe)
fit=model.predict(x_test)
loss = history.history['loss']
val_loss = history.history['val_loss']

我的问题是Valu loss是汇总错误还是平均错误。

这取决于损失函数。通常,损失是每个样本的损失平均值,例如超常见损失,如
均方误差

def mean_squared_error(y_true, y_pred):
    return K.mean(K.square(y_pred - y_true), axis=-1)
它显然是所有损失的平均值

问题是没有一个明确的答案,因为您总是可以传入一个自定义损失函数,该函数取和:

def sum_squared_error(y_true, y_pred):
    return K.sum(K.square(y_pred - y_true), axis=-1)

TLDR:通常是的,但是检查您使用的每个损失函数的来源以确保。您可以找到
keras
内置损失的来源

这取决于你的损失函数。通常,损失是每个样本的损失平均值,例如超常见损失,如
均方误差

def mean_squared_error(y_true, y_pred):
    return K.mean(K.square(y_pred - y_true), axis=-1)
它显然是所有损失的平均值

问题是没有一个明确的答案,因为您总是可以传入一个自定义损失函数,该函数取和:

def sum_squared_error(y_true, y_pred):
    return K.sum(K.square(y_pred - y_true), axis=-1)
TLDR:通常是的,但是检查您使用的每个损失函数的来源以确保。您可以找到
keras
内置损失的来源