Optimization pytorch中有序多重分类的损失函数
我是DNN和pytorch的初学者。 我正在处理一个多重分类问题,其中我的标签被编码成一个单色向量,比如维度Optimization pytorch中有序多重分类的损失函数,optimization,neural-network,pytorch,loss-function,Optimization,Neural Network,Pytorch,Loss Function,我是DNN和pytorch的初学者。 我正在处理一个多重分类问题,其中我的标签被编码成一个单色向量,比如维度D。 为此,我使用了CrossEntropyLoss。但是现在我想修改或改变这样的标准,以惩罚与实际值相差很远的值,比如说分类4而不是5比2而不是5好 Pytorch中是否已经内置了实现此行为的函数?否则,我如何修改CrossEntropyLoss来实现它?这可能会对您有所帮助。这是一个有序回归: 这听起来像是回归问题……不是吗?已经回答:可能是重复的
D
。
为此,我使用了CrossEntropyLoss。但是现在我想修改或改变这样的标准,以惩罚与实际值相差很远的值,比如说分类4而不是5比2而不是5好
Pytorch中是否已经内置了实现此行为的函数?否则,我如何修改CrossEntropyLoss来实现它?这可能会对您有所帮助。这是一个有序回归:
这听起来像是回归问题……不是吗?已经回答:可能是重复的