Pytorch Pytork参数中1.1.0和1.3.0的差异
我正在尝试学习PyTorch,并尝试运行从Kaggle网站获得的一些代码Pytorch Pytork参数中1.1.0和1.3.0的差异,pytorch,Pytorch,我正在尝试学习PyTorch,并尝试运行从Kaggle网站获得的一些代码 # Get all hidden layers' weights for i in range(len(hidden_units)): fc_layers.extend([ TrainNet.model.hidden_layers[i].weight.T.tolist(), # weights TrainNet.model.hidden_layers[i].bias.tolist() # bias
# Get all hidden layers' weights
for i in range(len(hidden_units)):
fc_layers.extend([
TrainNet.model.hidden_layers[i].weight.T.tolist(), # weights
TrainNet.model.hidden_layers[i].bias.tolist() # bias
])
这会产生以下错误:
AttributeError回溯(最近一次调用)
在里面
4对于范围内的i(len(隐藏单位)):
5个fc_层。扩展([
---->6 TrainNet.model.hidden_layers[i].weight.T.tolist(),#weights
7 TrainNet.model.hidden_layers[i].bias.tolist()#bias
8 ])
AttributeError:“Parameter”对象没有属性“T”
如果我打印出“TrainNet.model.hidden_layers[I].weight”类型,它确实是类型参数。
这段代码在Kaggle网站run-in-there笔记本(我相信是Google colab)上正常工作,Torch的版本是1.3.0
在发生错误的我家机器上,我刚刚更新的Anaconda发行版正在运行Torch 1.1.0
这是错误的来源吗?如何对其进行排序
谢谢类
参数
是的一个子类,因此具有火炬的所有属性。张量
Tensor.T
是在中引入的,因此在1.1.0中不可用
您可以更新pytorch版本,也可以在其位置使用permute方法,如下例所示
t=torch.Tensor(np.random.randint(0100,size=(2,3,4))#->t.shape=(2,3,4)的随机张量
>>>t形
火炬尺寸([2,3,4])
>>>列表(范围(len(t.shape))[:-1]
[2,1,0]#这是尺寸t的顺序。t将在1.2.0之后返回
>>>t=t.permute(列表(范围(len(t.shape)))[:-1])
>>>t形
火炬尺寸([4,3,2])
它相当于对矩阵进行转置,即颠倒维数顺序,但在N维张量中,类
参数是的一个子类,因此具有火炬的所有属性。张量
Tensor.T
是在中引入的,因此在1.1.0中不可用
您可以更新pytorch版本,也可以在其位置使用permute方法,如下例所示
t=torch.Tensor(np.random.randint(0100,size=(2,3,4))#->t.shape=(2,3,4)的随机张量
>>>t形
火炬尺寸([2,3,4])
>>>列表(范围(len(t.shape))[:-1]
[2,1,0]#这是尺寸t的顺序。t将在1.2.0之后返回
>>>t=t.permute(列表(范围(len(t.shape)))[:-1])
>>>t形
火炬尺寸([4,3,2])
这相当于对矩阵进行转置,即颠倒维度的顺序,但在N维张量中非常感谢。我想知道为什么Anaconda不使用1.2.0作为标准,非常感谢。我想知道为什么Anaconda不使用1.2.0作为标准
AttributeError Traceback (most recent call last)
<ipython-input-12-65f871b6f0b7> in <module>
4 for i in range(len(hidden_units)):
5 fc_layers.extend([
----> 6 TrainNet.model.hidden_layers[i].weight.T.tolist(), # weights
7 TrainNet.model.hidden_layers[i].bias.tolist() # bias
8 ])
AttributeError: 'Parameter' object has no attribute 'T'