Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/database/8.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Node.js ElasticSearch重新启动花费了很长时间_Node.js_Database_Hadoop_<img Src="//i.stack.imgur.com/RUiNP.png" Height="16" Width="18" Alt="" Class="sponsor Tag Img">elasticsearch - Fatal编程技术网 elasticsearch,Node.js,Database,Hadoop,elasticsearch" /> elasticsearch,Node.js,Database,Hadoop,elasticsearch" />

Node.js ElasticSearch重新启动花费了很长时间

Node.js ElasticSearch重新启动花费了很长时间,node.js,database,hadoop,elasticsearch,Node.js,Database,Hadoop,elasticsearch,我有一个四节点ElasticSearch集群。在我将大约100G数据插入集群后,我重新启动了集群。我发现恢复碎片需要花费大量时间。我注意到: 所有主碎片通过网关从本地节点恢复,恢复速度非常快 所有副本碎片从主碎片恢复,我发现副本碎片似乎是从主碎片所在的节点复制到集群中的另一个节点 在我完成了第一次长时间重启之后,我关闭了集群并再次重启集群,这只需要几分钟 我很困惑,当我重新启动集群时,为什么我的碎片复制会再次出现,我的节点中的原始副本数据在哪里 我已经阅读了一些相关问题,如: 但是它不起作用

我有一个四节点ElasticSearch集群。在我将大约100G数据插入集群后,我重新启动了集群。我发现恢复碎片需要花费大量时间。我注意到:

  • 所有主碎片通过网关从本地节点恢复,恢复速度非常快
  • 所有副本碎片从主碎片恢复,我发现副本碎片似乎是从主碎片所在的节点复制到集群中的另一个节点
  • 在我完成了第一次长时间重启之后,我关闭了集群并再次重启集群,这只需要几分钟
  • 我很困惑,当我重新启动集群时,为什么我的碎片复制会再次出现,我的节点中的原始副本数据在哪里

    我已经阅读了一些相关问题,如:


    但是它不起作用,我可以在第一次重新启动集群时停止节点间的碎片迁移吗?

    副本恢复缓慢是可以的。恢复主碎片后,集群可用,并且应为黄色。它可以接受查询,并将为此提供优先级,从而限制其他操作,如编写副本

    你引用的两个链接很有帮助。当一个节点消失时,集群会假设它已断开,并开始疯狂地重新洗牌。当一个节点短暂重启或稍晚一点离开时,这是没有意义的。在这些情况下,设置和禁用分配会有所帮助。此外,较新的版本会稍等()


    关于同步刷新的链接也是一个很好的链接。这意味着更快地重建副本。根据我的经验,这并没有快多少。

    感谢您的耐心,我创建了一个新集群并再次测试,在将数据插入集群后,我运行了刷新/同步,然后我发现主碎片和副本碎片的syn_id属性相同,我重新启动了集群,只需几分钟