Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/14.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 基于云的系统上的Rabbitmq_Amazon Web Services_Amazon Ec2_Rabbitmq_Cloud_Mnesia - Fatal编程技术网

Amazon web services 基于云的系统上的Rabbitmq

Amazon web services 基于云的系统上的Rabbitmq,amazon-web-services,amazon-ec2,rabbitmq,cloud,mnesia,Amazon Web Services,Amazon Ec2,Rabbitmq,Cloud,Mnesia,我目前正在基于云的系统AWS上构建rabbitmq集群部署。由于这一性质,系统必须能够丢失节点,同时仍能维护通过系统处理的所有客户端数据。目前,我将rabbitmq的mnesia数据放入AWS EFS中,在那里我可以从EC2中运行的任何机器上访问它。rabbitmq的所有集群都已处理。让我摸不着头脑的是,每当节点发生故障时,所有消息、队列和交换都会在返回时丢失。由于mnesia和erlang,我正在删除schema.DAT,以便节点可以再次集群。我还删除了所有过去的集群信息,因此当出现一个节点时

我目前正在基于云的系统AWS上构建rabbitmq集群部署。由于这一性质,系统必须能够丢失节点,同时仍能维护通过系统处理的所有客户端数据。目前,我将rabbitmq的mnesia数据放入AWS EFS中,在那里我可以从EC2中运行的任何机器上访问它。rabbitmq的所有集群都已处理。让我摸不着头脑的是,每当节点发生故障时,所有消息、队列和交换都会在返回时丢失。由于mnesia和erlang,我正在删除schema.DAT,以便节点可以再次集群。我还删除了所有过去的集群信息,因此当出现一个节点时,它总是被视为一个新节点,而旧节点则从集群中删除

因此,我的问题归结为:当节点在云中移动时,如何保存rabbitmq消息、队列和交换

我已经试过:

  • 所有消息都标记为持久
  • 所有队列都标记为持久队列
  • 所有的交易所都标着耐用的
  • 复制持久消息目录
  • 复制持久队列和exchange文件
如果有人对这个问题有见解,我将非常感谢你的意见


特洛伊城

我不会摆弄记忆,而只是使用它。你试过用那些吗?