Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python “Tensor”对象没有属性“ndim”_Python_Tensorflow_Keras - Fatal编程技术网

Python “Tensor”对象没有属性“ndim”

Python “Tensor”对象没有属性“ndim”,python,tensorflow,keras,Python,Tensorflow,Keras,我正在尝试制作包含LSTM、LSTMEMBEDDING和DNN的concat网络 解决分类问题 但我犯了这个错误。 请参阅下面的代码: # Shared Feature Extraction Layer from keras.utils import plot_model from keras.models import Model from keras.layers import Input from keras.layers import Dense from keras.layers.re

我正在尝试制作包含LSTM、LSTMEMBEDDING和DNN的concat网络 解决分类问题

但我犯了这个错误。 请参阅下面的代码:

# Shared Feature Extraction Layer
from keras.utils import plot_model
from keras.models import Model
from keras.layers import Input
from keras.layers import Dense
from keras.layers.recurrent import LSTM
from keras.layers.merge import concatenate

# define input
visible = Input(shape=(190,1))
visible1 = Input(shape=(3000,1))

# feature extraction
extract1 =  LSTM(50, return_sequences=False)(visible)

extract2 = LSTM(50, return_sequences=False)(visible1)

# merge interpretation
merge = concatenate([extract1, extract2])
# output
output = Dense(1, activation='sigmoid')(merge)
model = Model(inputs=[visible,visible1], outputs=output)
# summarize layers
print(model.summary())
model.compile(optimizer = "adam", loss = 'binary_crossentropy', metrics= 
['accuracy'])  
print("test",data.shape) 
print("test2",data_.shape)
# model.fit([data,data_],  y,  epochs=20, verbose=1)
但我犯了这个错误: --------------------------------------AttributeError回溯最近的呼叫 最后的 -->1模型。拟合[数据,数据],y,年代=350,批次大小=64

/etc/anaconda3/lib/python3.6/site-packages/keras/engine/training.py in fitself、x、y、批量大小、年代、详细、回调、, 验证分割、验证数据、洗牌、等级权重、, 样本重量、初始历元、每历元步骤、验证步骤、, **kwargs 1628样品重量=样品重量,1629等级重量=等级重量, ->1630批次尺寸=批次尺寸1631准备验证数据。1632 do_验证=错误

/etc/anaconda3/lib/python3.6/site-packages/keras/engine/training.py in _标准化用户数据集自身、x、y、样本重量、类别重量、检查数组长度、批次大小1478 输出图形,1479 检查批次轴是否为假, ->1480例外情况\u前缀='target'1481样本\u权重= _标准化样品重量样品重量,1482个自进料输出名称

/etc/anaconda3/lib/python3.6/site-packages/keras/engine/training.py in _标准化输入数据、名称、形状、检查批处理轴、异常前缀 74 data=data.values如果data.class.name=='DataFrame'else数据 75数据=[数据] -->76 data=[np.expand_dimsx,如果x不是None,则为1,如果x是数据中的x,则为x.ndim==1 else x] 77 78如果伦达!=列名:

/etc/anaconda3/lib/python3.6/site-packages/keras/engine/training.py in .0 74 data=data.values如果data.class.name=='DataFrame'else数据 75数据=[数据] -->76 data=[np.expand_dimsx,如果x不是None,则为1,如果x是数据中的x,则为x.ndim==1 else x] 77 78如果伦达!=列名:

AttributeError:“Tensor”对象没有属性“ndim”

请帮帮我:

visible = Input(shape=(190,1))
visible1 = Input(shape=(3000,1))
model = Model(inputs=[visible,visible1], outputs=output)
然后尝试运行model.fit[data,data],y,epochs=350,batch\u size=64。然后,你应该有数据,但是你有数据。那不行

但是总结显示没有,190,1。我想你已经纠正了。一旦我做了这个修正,网络训练正常,我没有得到任何错误

你的头发是什么形状的