elasticsearch,Python,elasticsearch" /> elasticsearch,Python,elasticsearch" />

Python 在弹性搜索中保存大数据时超时错误

Python 在弹性搜索中保存大数据时超时错误,python,elasticsearch,Python,elasticsearch,我正在一个Python应用程序中将数据从zip文件保存到Elasticsearch DB,该zip文件包含HTML页面和域名。现在我需要将数据从该文件推送到数组,然后需要将其保存在弹性搜索数据库中 问题是,有时,当数据非常广泛,因为HTML可以是任意大小时,我会得到错误: urllib3.exceptions.ReadTimeoutError: HTTPConnectionPool(host='localhost', port=9200): Read timed out. (read timeo

我正在一个Python应用程序中将数据从zip文件保存到Elasticsearch DB,该zip文件包含HTML页面和域名。现在我需要将数据从该文件推送到数组,然后需要将其保存在弹性搜索数据库中

问题是,有时,当数据非常广泛,因为HTML可以是任意大小时,我会得到错误:

urllib3.exceptions.ReadTimeoutError: HTTPConnectionPool(host='localhost', port=9200): Read timed out. (read timeout=300)
由-ReadTimeoutError引起的ConnectionTimeout(HTTPConnectionPool(host='localhost',port=9200):读取超时。(读取超时=300))

我已经尝试增加超时值,但我不知道数据在更新时可以保存多长时间,所以不确定应该在那个里设置什么值

有谁能帮助我知道,如果这是唯一的方法,或者有其他更好的方法来解决它