Python pytorch autograd阻止脚本终止
每当我向后调用autogradsPython pytorch autograd阻止脚本终止,python,pytorch,autograd,Python,Pytorch,Autograd,每当我向后调用autograds时,我的脚本永远不会终止向后本身并不是阻塞,所有行在它执行之后仍然会被执行,脚本只是不会终止。似乎在后台有某种挂起的工作线程,但我找不到任何关于它的信息 我最初在训练神经网络时遇到了这个问题,但我最终发现了一个具有相同行为的非常简短的示例: import torch x = torch.randn(3, requires_grad=True) y = x * 2 print(y) gradients = torch.tensor([0.1, 1.0, 0.00
时,我的脚本永远不会终止<代码>向后
本身并不是阻塞,所有行在它执行之后仍然会被执行,脚本只是不会终止。似乎在后台有某种挂起的工作线程,但我找不到任何关于它的信息
我最初在训练神经网络时遇到了这个问题,但我最终发现了一个具有相同行为的非常简短的示例:
import torch
x = torch.randn(3, requires_grad=True)
y = x * 2
print(y)
gradients = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(gradients)
print(x.grad)
print("all done")
当我向后删除行时,脚本按预期完成。否则,我会在任务管理器中看到一个进程调用python
,如果我手动终止它,脚本执行也会终止
我使用conda(conda create--name grad_test pytorch-c pytorch
)在Windows 7上安装了pytorch,它是最新的稳定版本(python 3.7,pytorch 1.2.0)。它现在仍然存在,似乎是Windows 7特有的问题