Encryption 使用现有数据在红移群集上启用加密

Encryption 使用现有数据在红移群集上启用加密,encryption,amazon-redshift,Encryption,Amazon Redshift,我负责在一个红移集群上启用加密,该集群拥有大量现有数据。根据我所知,启用后,它将创建一个新集群,并跨多个服务器复制现有数据,从而使在此期间的访问成为只读。我们有许多ETL作业是针对Redshift集群运行的,我正试图确定迁移大概需要多长时间。是否有任何基于数据大小/节点类型/集群配置的估算 是否有基于数据大小/节点的估算 类型/集群配置 基本上不会。这需要多少时间取决于许多因素,其中一些因素超出了你的控制范围,因此很难预测 你绝对应该先测试一下,这样你才能理解它的含义,以及它可能需要多长时间

我负责在一个红移集群上启用加密,该集群拥有大量现有数据。根据我所知,启用后,它将创建一个新集群,并跨多个服务器复制现有数据,从而使在此期间的访问成为只读。我们有许多ETL作业是针对Redshift集群运行的,我正试图确定迁移大概需要多长时间。是否有任何基于数据大小/节点类型/集群配置的估算

是否有基于数据大小/节点的估算 类型/集群配置

基本上不会。这需要多少时间取决于许多因素,其中一些因素超出了你的控制范围,因此很难预测

你绝对应该先测试一下,这样你才能理解它的含义,以及它可能需要多长时间

  • 通过还原群集的快照来创建新的相同群集 原始簇
  • 按照步骤加密集群并记录 所花的时间
  • 理想情况下,使用加密集群测试现有ETL作业
  • 放下测试集群
根据我调整集群大小的经验(类似但不完全相同的练习),由于本地AWS资源、网络流量等的变化,我将允许您的测试时间有+/-10-15%的余量

如果可能的话,我建议关闭所有到集群的连接以加快进程。我们发现一个经常轮询集群的进程导致调整大小的进程花费更长的时间

对于参考点,一个包含约25 Tb数据的20节点ds群集需要大约20小时才能调整大小