Lua Torch双张量CharTensor不相容性
从本质上讲,我们如何用双张量乘以CharTensor掩模?我为火炬制作了一个模块,它应该类似于ReLU模块。因此self.mask应该是一个0和1的掩码,我想用它来处理双张量self.output。目前self.mask是一个图表传感器,我无法将日志中显示的两者相乘。这看起来很琐碎,但我现在一直在网上寻找,找不到解决办法 无限感谢 -焦虑的编码员 功能需求:更新输出(输入) self.mask=torch.gt(输入,0) 自输出:cmul(自屏蔽) 日志: 无效参数:DoubleTensor ByteTensor 预期参数:双张量[双张量]双张量 堆栈回溯: [C] :在功能“cmul”中Lua Torch双张量CharTensor不相容性,lua,neural-network,torch,Lua,Neural Network,Torch,从本质上讲,我们如何用双张量乘以CharTensor掩模?我为火炬制作了一个模块,它应该类似于ReLU模块。因此self.mask应该是一个0和1的掩码,我想用它来处理双张量self.output。目前self.mask是一个图表传感器,我无法将日志中显示的两者相乘。这看起来很琐碎,但我现在一直在网上寻找,找不到解决办法 无限感谢 -焦虑的编码员 功能需求:更新输出(输入) self.mask=torch.gt(输入,0) 自输出:cmul(自屏蔽) 日志: 无效参数:DoubleTenso
./requu.lua:21:in function'forward'Torch公开了执行此操作的方法,而无需自己乘以值。最简单的方法可能是反转遮罩并使用:
谢谢你简洁的回答!
self.mask = torch.le(input, 0)
self.output[self.mask] = 0