Python 如何处理酸洗超大物体时的酸洗误差

Python 如何处理酸洗超大物体时的酸洗误差,python,pickle,Python,Pickle,在酸洗100 GB级别的对象时出现此错误。有什么解决办法吗 PicklingError: memo id too large for LONG_BINPUT 触发此操作的代码是常规的pickle.dump功能: pickle.dump(obj, open("obj.pkl", "wb")) 简而言之,pickle不是为大型对象设计的。使用json.dumps()有时效果更好。使用数据库通常是更好的主意,尽管这需要一些设置。简而言之,pickle不是为大型对象设计的。使用json.dumps(

在酸洗100 GB级别的对象时出现此错误。有什么解决办法吗

PicklingError: memo id too large for LONG_BINPUT
触发此操作的代码是常规的
pickle.dump
功能:

pickle.dump(obj, open("obj.pkl", "wb"))

简而言之,pickle不是为大型对象设计的。使用json.dumps()有时效果更好。使用数据库通常是更好的主意,尽管这需要一些设置。简而言之,pickle不是为大型对象设计的。使用json.dumps()有时效果更好。使用数据库通常是更好的主意,尽管这需要一些设置。