Keras 标记器没有属性oov_token

Keras 标记器没有属性oov_token,keras,Keras,回溯(最近一次呼叫最后一次): 文件“dac.py”,第87行,在 X_列=加载\u创建\u填充的\u数据(X_列=X_列,savetokenizer=False,isPaddingDone=False,maxlen=序列长度,tokenizer\u路径='./新的\u tokenizer.tkn') 文件“/home/dpk/Downloads/DAC/New_Utils.py”,第92行,加载、创建、填充数据 X_序列=标记器。文本到序列(X_序列) 文件“/home/dpk/anacond

回溯(最近一次呼叫最后一次): 文件“dac.py”,第87行,在 X_列=加载\u创建\u填充的\u数据(X_列=X_列,savetokenizer=False,isPaddingDone=False,maxlen=序列长度,tokenizer\u路径='./新的\u tokenizer.tkn') 文件“/home/dpk/Downloads/DAC/New_Utils.py”,第92行,加载、创建、填充数据 X_序列=标记器。文本到序列(X_序列) 文件“/home/dpk/anaconda2/envs/venv/lib/python2.7/site packages/keras_preprocessing/text.py”,第278行,按文本顺序排列 返回列表(self.text\u到\u序列\u生成器(text)) 文件“/home/dpk/anaconda2/envs/venv/lib/python2.7/site packages/keras_preprocessing/text.py”,第296行,文本到序列生成器 oov\u token\u index=self.word\u index.get(self.oov\u token) AttributeError:“Tokenizer”对象没有属性“oov_token”

可能是这个:

您可以手动设置tokenizer.oov_token=None来修复此问题

Pickle不是序列化对象的可靠方法,因为它假定 您正在导入的底层Python代码/模块没有 改变。一般来说,不要使用具有不同颜色的pickle对象 库的版本比酸洗时使用的版本高。那不是 一个Keras问题,它是一个通用的Python/Pickle


要修复此问题,我手动设置

self.oov\u令牌=无
但不是

tokenizer.oov\u token=无