Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/github/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Nlp 有没有办法使用load_word2vec_格式更快地加载wiki fasttext模型_Nlp_Stanford Nlp_Gensim_Fasttext - Fatal编程技术网

Nlp 有没有办法使用load_word2vec_格式更快地加载wiki fasttext模型

Nlp 有没有办法使用load_word2vec_格式更快地加载wiki fasttext模型,nlp,stanford-nlp,gensim,fasttext,Nlp,Stanford Nlp,Gensim,Fasttext,使用gensim库加载wiki fasttext模型需要六分钟 我知道缓存模型的方法,但我正在寻找加速初始模型加载的方法。具体api如下所示: en_model = KeyedVectors.load_word2vec_format(os.path.join(root_dir, model_file)) 诚然,wiki fasttext是一个非常大的模型,但是我用许多语言加载了相同的模型 您可以尝试使用limit=vector\u num参数从文件加载vector\u num字向量。您不会加载

使用gensim库加载wiki fasttext模型需要六分钟

我知道缓存模型的方法,但我正在寻找加速初始模型加载的方法。具体api如下所示:

en_model = KeyedVectors.load_word2vec_format(os.path.join(root_dir, model_file))

诚然,wiki fasttext是一个非常大的模型,但是我用许多语言加载了相同的模型

您可以尝试使用
limit=vector\u num
参数从文件加载
vector\u num
字向量。您不会加载所有向量,但可以加快加载过程。

我希望从基于英文维基百科的模型中删除我要分析的数据集中未包含的WordVector。也就是说,我想从FastText模型加载向量子集。我该怎么做?迭代模型并写入新模型会破坏该类型。