Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 将数据从on prem传输到AWS的最佳方式_Amazon Web Services_Amazon S3_Migration - Fatal编程技术网

Amazon web services 将数据从on prem传输到AWS的最佳方式

Amazon web services 将数据从on prem传输到AWS的最佳方式,amazon-web-services,amazon-s3,migration,Amazon Web Services,Amazon S3,Migration,我需要将数据一次性从on prem传输到AWS S3。数据大小约为1 TB。我正在经历AWS数据同步、Snowball等。。。但是,如果数据以PB为单位,则最好迁移这些托管服务。有人能给我推荐一种安全、经济高效地传输数据的最佳方法吗?如果您没有特殊要求,只是需要加密,文件大小为1TB,那么我建议您坚持简单明了的方法。S3支持5TB的对象大小,因此您不会遇到麻烦。我不知道你的数据是由许多小文件还是一个大文件或zip组成,但本质上是一样的。由于端点或所有加密的文件,如果您担心的话,您应该没问题,您可

我需要将数据一次性从on prem传输到AWS S3。数据大小约为1 TB。我正在经历AWS数据同步、Snowball等。。。但是,如果数据以PB为单位,则最好迁移这些托管服务。有人能给我推荐一种安全、经济高效地传输数据的最佳方法吗?如果您没有特殊要求,只是需要加密,文件大小为1TB,那么我建议您坚持简单明了的方法。S3支持5TB的对象大小,因此您不会遇到麻烦。我不知道你的数据是由许多小文件还是一个大文件或zip组成,但本质上是一样的。由于端点或所有加密的文件,如果您担心的话,您应该没问题,您可以在之前加密您的文件,并且如果备份了某些内容,则文件将在存储时加密。为了达到这一点,您可以使用API工具进行传输,或者仅使用文件浏览器类型的工具,这些工具也可以连接到S3,例如。还有一点:存储/传输的成本效益取决于您需要数据的频率,无论是备份还是以防万一。归档到glacier要便宜得多。

如果除了需要加密和文件大小为1TB之外,您没有具体要求,那么我建议您坚持简单明了的方式。S3支持5TB的对象大小,因此您不会遇到麻烦。我不知道你的数据是由许多小文件还是一个大文件或zip组成,但本质上是一样的。由于端点或所有加密的文件,如果您担心的话,您应该没问题,您可以在之前加密您的文件,并且如果备份了某些内容,则文件将在存储时加密。为了达到这一点,您可以使用API工具进行传输,或者仅使用文件浏览器类型的工具,这些工具也可以连接到S3,例如。还有一点:存储/传输的成本效益取决于您需要数据的频率,无论是备份还是以防万一。归档到glacier要便宜得多。

您可以使用。此命令将数据复制到Amazon S3:

aws s3 sync c:/MyDir s3://my-bucket/
如果出现网络故障或超时,只需再次运行该命令。它只复制目标中尚未存在的文件

所需时间取决于您的互联网连接速度

<>你也可以考虑使用AWS雪球,这是一个硬件发送到你的位置。它可以容纳50TB的数据,成本为200美元。

您可以使用。此命令将数据复制到Amazon S3:

aws s3 sync c:/MyDir s3://my-bucket/
如果出现网络故障或超时,只需再次运行该命令。它只复制目标中尚未存在的文件

所需时间取决于您的互联网连接速度


<>你也可以考虑使用AWS雪球,这是一个硬件发送到你的位置。它可以容纳50TB的数据,成本为200美元。

1TB的容量很大,但不会太大,您需要数周的时间才能将数据传输到S3上。然而,如果你没有一个好的上传速度,使用雪球


Snowball是一款提供给您的设备,最多可容纳100TB的容量。您将数据加载到其中并将其发送回AWS,AWS将在加载数据时将其上载到您指定的S3存储桶

1 TB的容量很大,但它并没有大到需要几周才能将数据传输到S3。然而,如果你没有一个好的上传速度,使用雪球


Snowball是一款提供给您的设备,最多可容纳100TB的容量。您将数据加载到其中并将其发送回AWS,AWS将在加载数据时将其上载到您指定的S3存储桶

这可以通过多种方式实现

使用AWS Cli,我们可以将文件从本地复制到S3 AWS传输使用FTP或SFTP AWS SFTP 请

有像cloudberry客户端这样的工具,它有一个UI界面 您可以使用AWS数据同步工具
这可以通过多种方式实现

使用AWS Cli,我们可以将文件从本地复制到S3 AWS传输使用FTP或SFTP AWS SFTP 请

有像cloudberry客户端这样的工具,它有一个UI界面 您可以使用AWS数据同步工具
数据需要在哪里结束?S3?数据库根据标签,我猜S3你有哪一个传输时间段?我需要将它存储在S3中。计时不是一个约束条件数据需要在哪里结束?S3?数据库根据标签,我猜S3你有哪一个传输时间段?我需要将它存储在S3中。时间不是一个限制