Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/python-3.x/17.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 3.x 索引器:维度1的张量的索引太多_Python 3.x_Deep Learning_Dataset_Lstm_Rnn - Fatal编程技术网

Python 3.x 索引器:维度1的张量的索引太多

Python 3.x 索引器:维度1的张量的索引太多,python-3.x,deep-learning,dataset,lstm,rnn,Python 3.x,Deep Learning,Dataset,Lstm,Rnn,我目前正致力于RNN的异常检测。我正在为网络使用我自己的数据集。但是在运行下面的代码时 parser.add_argument('--data', type=str, default='EEGFAM', help='type of the dataset (ecg, EEGFAM, gesture, power_demand, space_shuttle, respiration, nyc_taxi') parser.add_argument('--fil

我目前正致力于RNN的异常检测。我正在为网络使用我自己的数据集。但是在运行下面的代码时

parser.add_argument('--data', type=str, default='EEGFAM',
                    help='type of the dataset (ecg, EEGFAM, gesture, power_demand, space_shuttle, respiration, nyc_taxi')
parser.add_argument('--filename', type=str, default='eeg.pkl',
                    help='filename of the dataset')
parser.add_argument('--model', type=str, default='LSTM',
                    help='type of recurrent net (RNN_TANH, RNN_RELU, LSTM, GRU, SRU)')
parser.add_argument('--augment', type=bool, default=True,
                    help='augment')

TimeseriesData = preprocess_data.PickleDataLoad(data_type=args.data, filename=args.filename,
                                                augment_test_data=args.augment)
上面的子功能代码

with open(str(path), 'rb') as f:
            data = torch.FloatTensor(pickle.load(f))
            #print(data)
            label = data[:,-1]
            print(label)
            data = data[:,:-1]
            print(data)
我得到下面的错误

> Traceback (most recent call last):   File "1_train_predictor.py", line
> 76, in <module>
>     augment_test_data=args.augment)   File "/home/mtp-1/pro/codes/RNN-Time-series-Anomaly-Detection-master/preprocess_data.py",
> line 23, in __init__
>     self.trainData, self.trainLabel = self.preprocessing(Path('dataset',data_type,'labeled','train',filename),train=True)
> File
> "/home/mtp-1/pro/codes/RNN-Time-series-Anomaly-Detection-master/preprocess_data.py",
> line 49, in preprocessing
>     label = data[:,-1] IndexError: too many indices for tensor of dimension 1
>回溯(最后一次调用):文件“1\u train\u predictor.py”,第行
>76,在
>augment_test_data=args.augment)文件“/home/mtp-1/pro/codes/RNN时间序列异常检测主机/preprocess_data.py”,
>第23行,in__init__
>self.trainData,self.trainLabel=self.preprocessing(路径('dataset',数据类型,'label','train',文件名),train=True)
>文件
>“/home/mtp-1/pro/codes/RNN时间序列异常检测主控/预处理_data.py”,
>第49行,在预处理中
>label=data[:,-1]索引器错误:维度1的张量索引过多
我正在处理EEG数据,加载的文件由五个人的数据组成,他们的名字作为标签

请在这个问题上帮助我