Neural network 为什么在softmax中使用(exp)而不是(log)?

Neural network 为什么在softmax中使用(exp)而不是(log)?,neural-network,classification,logistic-regression,softmax,Neural Network,Classification,Logistic Regression,Softmax,我不太了解log和exp的关系。但是,我感到困惑的是,在softmax回归中不使用log Exp是为所有实数值定义的,而log不是 任何等于或小于零的向量元素都会导致数值错误或对数函数的未定义行为。exp没有这个问题 为了避免未定义的错误,您需要向所有元素添加一个非常小的偏差。但是这个ε应该有多小呢?你怎么处理负数。您可能永远不会期望一个负数,而只是简单地通过截断错误或非常接近浮点表示(一个非常小的值,最终被表示为一个小的负数)

我不太了解log和exp的关系。但是,我感到困惑的是,在softmax回归中不使用log


Exp是为所有实数值定义的,而log不是

任何等于或小于零的向量元素都会导致数值错误或对数函数的未定义行为。exp没有这个问题

为了避免未定义的错误,您需要向所有元素添加一个非常小的偏差。但是这个ε应该有多小呢?你怎么处理负数。您可能永远不会期望一个负数,而只是简单地通过截断错误或非常接近浮点表示(一个非常小的值,最终被表示为一个小的负数)