Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/339.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python ValueError:张量(“指数衰减4:0”,shape=(),dtype=float32)_Python_Tensorflow_Machine Learning_Deep Learning_Nlp - Fatal编程技术网

Python ValueError:张量(“指数衰减4:0”,shape=(),dtype=float32)

Python ValueError:张量(“指数衰减4:0”,shape=(),dtype=float32),python,tensorflow,machine-learning,deep-learning,nlp,Python,Tensorflow,Machine Learning,Deep Learning,Nlp,用于查找语言、印地语或英语类型的分类器 ValueError:Tensor(“指数decay_4:0”,shape=(),dtype=float32)必须与Tensor(dnn/hiddenlayer_0/kernel/part_0:0,shape=(),dtype=resource)来自同一个图形。 来自未来导入绝对导入、除法、打印函数、unicode文本 从absl导入日志 导入tensorflow作为tf 将tensorflow_hub导入为hub 将matplotlib.pyplot作

用于查找语言、印地语或英语类型的分类器

ValueError:Tensor(“指数decay_4:0”,shape=(),dtype=float32)必须与Tensor(dnn/hiddenlayer_0/kernel/part_0:0,shape=(),dtype=resource)来自同一个图形。
来自未来导入绝对导入、除法、打印函数、unicode文本
从absl导入日志
导入tensorflow作为tf
将tensorflow_hub导入为hub
将matplotlib.pyplot作为plt导入
将numpy作为np导入
导入操作系统
作为pd进口熊猫
进口稀土
导入seaborn作为sns
df=pd.read\u csv(“intern\u test/data/english\u text.csv”,encoding=“拉丁语-1”)
df2=pd.read\u csv(“intern\u test/data/hinglish\u text.csv”,encoding=“拉丁语-1”)
df['label']=0#英语
df2['label']=1#印地语
df3=pd.concat([df,df2])
df3.head()
#整个培训集的培训输入,不限制培训时间。
训练输入\u fn=tf.compat.v1.estimator.inputs.pandas\u输入\u fn(
df3,df3[“标签”],num_epochs=None,shuffle=True)
#对整个训练集进行预测。
预测\u训练\u输入\u fn=tf.compat.v1.estimator.inputs.pandas\u输入\u fn(
df3,df3[“标签”],随机播放=假)
#测试集的预测。
#预测测试输入fn=tf.compat.v1.estimator.inputs.pandas输入fn(
#X_测试,y_测试,随机播放=假)
嵌入的\u文本\u功能\u列=hub.text\u嵌入的\u列(
key=“text”,
模块规格=”https://tfhub.dev/google/nnlm-en-dim128/1")
优化器=tf.compat.v1.train.AdamOptimizer(
学习率=tf.compat.v1.train.index衰减(
全局步长=0,
学习率=0.1,
衰减步数=10000,
衰减率=0.96,楼梯=真)
估算器=tf.estimator.DNNClassifier(
隐藏单位=[500100],
特征列=[嵌入的特征列],
n_类=2,
优化器=优化器
)
估算器序列(输入=序列输入,步数=5000);
完全回溯:

ValueError回溯(最近一次调用)
在里面
2#批量大小。这大致相当于自训练数据集以来的25个时代
3#包含25000个示例。
---->4估计器序列(输入=序列输入,步长=5000);
~/anaconda3/envs/tf/lib/python3.7/site-packages/tensorflow\u estimator/python/estimator/estimator.py in-train(self、input\fn、hook、steps、max\u steps、saving\u侦听器)
356
357保存侦听器=\u检查侦听器\u类型(保存侦听器)
-->358损失=自我训练模型(输入、挂钩、保存侦听器)
359 logging.info('最后一步丢失:%s',丢失)
360度回归自我
~/anaconda3/envs/tf/lib/python3.7/site-packages/tensorflow\u estimator/python/estimator/estimator.py in\u train\u模型(self、input\fn、hook、saving\u监听器)
1122返回自。\列车\模型\分布式(输入\ fn、挂钩、保存\侦听器)
1123其他:
->1124返回self.\u train\u model\u default(输入\u fn、钩子、保存\u侦听器)
1125
1126 def_train_model_默认值(self、input_fn、hook、saving_监听器):
~/anaconda3/envs/tf/lib/python3.7/site-packages/tensorflow\u estimator/python/estimator/estimator.py in\u train\u model\u默认值(self、input\fn、hooks、saving\u监听器)
1152工人挂钩。扩展(输入挂钩)
1153估计器\规格=自身\调用\模型\ fn(
->1154特性、标签、型号(fn_lib.ModeKeys.TRAIN、self.config)
1155全局步骤张量=训练工具获取全局步骤(g)
1156带估算器规范(估算器规范、工人规范、,
~/anaconda3/envs/tf/lib/python3.7/site-packages/tensorflow\u estimator/python/estimator/estimator.py in\u call\u model\u fn(自我、功能、标签、模式、配置)
1110
1111 logging.info('Calling model_fn'))
->1112模型结果=自身。模型(特征=特征,**kwargs)
1113 logging.info('Done calling model_fn'))
1114
~/anaconda3/envs/tf/lib/python3.7/site-packages/tensorflow\u estimator/python/estimator/canted/dnn.py in\u model\u fn(特性、标签、模式、配置)
520输入层分区器=输入层分区器,
521 config=config,
-->522批次标准=批次标准)
523
524超级(DNNClassifier,self)。\u初始化__(
~/anaconda3/envs/tf/lib/python3.7/site-packages/tensorflow\u estimator/python/estimator/canted/dnn.py in\u dnn\u model\u fn(特性、标签、模式、头部、隐藏单元、特性列、优化器、激活、退出、输入层分区、配置、使用、批处理)
300标签=标签,
301优化器=优化器,
-->302 logits=logits)
303
304
创建估计器规范中的~/anaconda3/envs/tf/lib/python3.7/site-packages/tensorflow\u estimator/python/estimator/canted/head.py(self、features、mode、logits、label、optimizer、train\u op\u fn、regularization\u loss)
238自我评估(创建)(tpu)(评估)(规格)(
239功能、模式、登录、标签、优化器、列车运行,
-->240正规化(损失)
241返回tpu估计量规格as估计量规格()
242除未实施错误外:
~/anaconda3/envs/tf/lib/python3.7/site-packages/tensorflow\u estimator/python/estimator/canted/head.py in\u create\u tpu\u estimator\u spec(self、features、mode、logits、label、optimizer、train\u op\u fn、regularization\u loss)
1244列车运行=优化器。最小化(
1245次正规化培训和损失,
->1246全局\u步骤=训练\u util.get\u全局\u步骤()
1247 elif列车运行fn不是无:
1248列车运行=列车运行fn(正规化列车运行损耗)
最小化中的~/anaconda3/envs/tf/lib/python3.7/site-packages/tensorflow/python/training/optimizer.py
411
412返回自我。应用梯度(梯度和变量,全局步长=全局步长,
-->413名称=名称)
414
415 def计算梯度(自,l
def exponential_decay_fn(epoch):
    return 0.01 * 0.1**(epoch / 20) 

def exponential_decay(lr0, s):
    def exponential_decay_fn(epoch):
        return lr0 * 0.1**(epoch / s)
    return exponential_decay_fn

exponential_decay_fn = exponential_decay(lr0=0.01, s=20)  

model.compile(loss="sparse_categorical_crossentropy", optimizer="nadam", metrics=["accuracy"])
n_epochs = 25  


lr_scheduler = keras.callbacks.LearningRateScheduler(exponential_decay_fn)
history = model.fit(X_train_scaled, y_train, epochs=n_epochs,
                    validation_data=(X_valid_scaled, y_valid),
                    callbacks=[lr_scheduler])