Python PyTorch:sparse softmax是否可用?

Python PyTorch:sparse softmax是否可用?,python,pytorch,Python,Pytorch,我有一个火炬张量的形状(批量大小,N)。我想将带dim 1的函数softmax应用于这个张量,但我也希望它忽略张量中的零,并且只应用于非零值(张量中的非零是正数)。我想我要找的是稀疏的softmax 我提出了以下代码:,但它似乎使用了nn.Module而不是函数 如何将稀疏softmax用作功能性的?使用链接的回购协议中的y=Sparsemax(dim=1)(x)有什么问题?我想将其用作功能,不需要其梯度,但它是使用nn.Module实现的。我可以将它用作no\u grad()的函数吗?当然,您

我有一个火炬张量的形状
(批量大小,N)
。我想将带dim 1的函数softmax应用于这个张量,但我也希望它忽略张量中的零,并且只应用于非零值(张量中的非零是正数)。我想我要找的是稀疏的softmax

我提出了以下代码:,但它似乎使用了
nn.Module
而不是函数


如何将稀疏softmax用作功能性的?使用链接的回购协议中的
y=Sparsemax(dim=1)(x)
有什么问题?我想将其用作功能,不需要其梯度,但它是使用nn.Module实现的。我可以将它用作
no\u grad()
的函数吗?当然,您可以在
no\u grad()
上下文中使用它,就像任何其他
nn.Module
一样。