Nlp 有没有办法使用load_word2vec_格式更快地加载wiki fasttext模型
使用gensim库加载wiki fasttext模型需要六分钟 我知道缓存模型的方法,但我正在寻找加速初始模型加载的方法。具体api如下所示:Nlp 有没有办法使用load_word2vec_格式更快地加载wiki fasttext模型,nlp,stanford-nlp,gensim,fasttext,Nlp,Stanford Nlp,Gensim,Fasttext,使用gensim库加载wiki fasttext模型需要六分钟 我知道缓存模型的方法,但我正在寻找加速初始模型加载的方法。具体api如下所示: en_model = KeyedVectors.load_word2vec_format(os.path.join(root_dir, model_file)) 诚然,wiki fasttext是一个非常大的模型,但是我用许多语言加载了相同的模型 您可以尝试使用limit=vector\u num参数从文件加载vector\u num字向量。您不会加载
en_model = KeyedVectors.load_word2vec_format(os.path.join(root_dir, model_file))
诚然,wiki fasttext是一个非常大的模型,但是我用许多语言加载了相同的模型 您可以尝试使用
limit=vector\u num
参数从文件加载vector\u num
字向量。您不会加载所有向量,但可以加快加载过程。我希望从基于英文维基百科的模型中删除我要分析的数据集中未包含的WordVector。也就是说,我想从FastText模型加载向量子集。我该怎么做?迭代模型并写入新模型会破坏该类型。