Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/ssh/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python sklearn模型存在哪些合理的模型持久性选项?_Python_Machine Learning_Scikit Learn - Fatal编程技术网

Python sklearn模型存在哪些合理的模型持久性选项?

Python sklearn模型存在哪些合理的模型持久性选项?,python,machine-learning,scikit-learn,Python,Machine Learning,Scikit Learn,joblib.dump()似乎是存储经过训练的sklearn模型以供以后加载和使用的理想方法。我喜欢压缩选项和易用性,但是以后使用joblib.load()加载会很慢。加载一个SVM模型需要20秒,该模型在一个合理的小数据集(约10k个文本)上训练。该模型(建议使用compress=3存储)将100MB作为转储文件 对于我自己的使用(分析),我不必担心加载模型的速度,但我有一个我想与同事们分享的模型,我想让它尽可能简单快捷。我找到了一些替代joblib的例子,例如pickle、json或。所有这

joblib.dump()
似乎是存储经过训练的sklearn模型以供以后加载和使用的理想方法。我喜欢压缩选项和易用性,但是以后使用
joblib.load()
加载会很慢。加载一个SVM模型需要20秒,该模型在一个合理的小数据集(约10k个文本)上训练。该模型(建议使用compress=3存储)将100MB作为转储文件

对于我自己的使用(分析),我不必担心加载模型的速度,但我有一个我想与同事们分享的模型,我想让它尽可能简单快捷。我找到了一些替代joblib的例子,例如pickle、json或。所有这些基本上都是相同的想法,将二进制对象转储到磁盘

我发现,作为一个例子,我怀疑它是以与sklearn模型类似的方式创建的。在我看来,整个模型似乎被编码为某种字符串(base64?),只是粘贴到脚本本身中。这是一个解决方案吗?这是怎么做到的


还有其他可行的策略吗

您的型号在内存和磁盘上的容量有多大?@elyase内存为194.6MB(根据)磁盘上的容量为101.2MB(然后使用
joblib.dump()
中的压缩)。