Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/360.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如何解决PyTorch烟囱的问题?_Python_Pytorch - Fatal编程技术网

Python 如何解决PyTorch烟囱的问题?

Python 如何解决PyTorch烟囱的问题?,python,pytorch,Python,Pytorch,我想使用PyTorch运行Python程序。如何使批次中的每个张量相等?因为出现以下问题: 回溯(最近一次呼叫最后一次): 文件“C:\Users\hp\Downloads\effective\u densenet\u pytorch-master\demomomotion.py”,第311行,在 火,火(演示) 文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\fire\core.py”,第138行,在fire中 component_

我想使用PyTorch运行Python程序。如何使批次中的每个张量相等?因为出现以下问题:

回溯(最近一次呼叫最后一次):
文件“C:\Users\hp\Downloads\effective\u densenet\u pytorch-master\demomomotion.py”,第311行,在
火,火(演示)
文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\fire\core.py”,第138行,在fire中
component_trace=_Fire(组件、参数、解析的_标志、参数、上下文、名称)
文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\fire\core.py”,第468行,在\u fire中
目标=组件。\u名称\u)
文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\fire\core.py”,第672行,在_CallAndUpdateTrace中
组件=fn(*varargs,**kwargs)
文件“C:\Users\hp\Downloads\effective\u densenet\u pytorch-master\demomomootion.py”,第289行,在演示中
n_时代=n_时代,批次大小=批次大小,种子=种子)
文件“C:\Users\hp\Downloads\effective\u densenet\u pytorch-master\demomomootion.py”,第168行,列车中
n_时代=n_时代,
文件“C:\Users\hp\Downloads\effective\u densenet\u pytorch-master\demomomootion.py”,第42行,火车时代
对于枚举(加载器)中的批处理(输入,目标):
文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\torch\utils\data\dataloader.py”,第346行,下一步__
data=self.\u next\u data()
文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\torch\utils\data\dataloader.py”,第386行,在下一个数据中
data=self._dataset_fetcher.fetch(index)#可能引发停止迭代
文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\torch\utils\data\\u utils\fetch.py”,fetch中第47行
返回自我整理(数据)
默认情况下,文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\torch\utils\data\\u utils\collate.py”第87行
return[对于转置后的样本,默认进行校对(样本)]
文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\torch\utils\data\u utils\collate.py”,第87行,在
return[对于转置后的样本,默认进行校对(样本)]
默认情况下,文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\torch\utils\data\\u utils\collate.py”第72行
返回默认值(批处理中b的[torch.as_tensor(b)])
默认情况下,文件“C:\Users\hp\Anaconda3\envs\tf gpu\lib\site packages\torch\utils\data\\u utils\collate.py”第63行
返回火炬堆叠(批次,0,输出=输出)
RuntimeError:堆栈期望每个张量大小相等,但在条目0处得到[650],在条目1处得到[108]

请发布您的代码以便我们提供帮助请发布您的代码以便我们提供帮助