Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services 亚马逊EC2->S3流量限制_Amazon Web Services_Amazon S3_Amazon Ec2 - Fatal编程技术网

Amazon web services 亚马逊EC2->S3流量限制

Amazon web services 亚马逊EC2->S3流量限制,amazon-web-services,amazon-s3,amazon-ec2,Amazon Web Services,Amazon S3,Amazon Ec2,我的Amazon EC2 Windows/t2。大型服务器将~200K个文件上载到S3。存储桶与服务器位于同一区域。在每分钟上传约100个文件的几个小时后,上传速度会降低到每分钟约30个文件,没有明显的原因。将该过程暂停几个小时将使其再次快速运行。亚马逊对这种流量有限制吗?速度下降还有其他原因吗 这是我的上传代码: string S3_KEY = S3TargetFileName; S3_KEY = S3FolderName + "/" + S3_KEY;

我的Amazon EC2 Windows/t2。大型服务器将~200K个文件上载到S3。存储桶与服务器位于同一区域。在每分钟上传约100个文件的几个小时后,上传速度会降低到每分钟约30个文件,没有明显的原因。将该过程暂停几个小时将使其再次快速运行。亚马逊对这种流量有限制吗?速度下降还有其他原因吗

这是我的上传代码:

        string S3_KEY = S3TargetFileName;

        S3_KEY = S3FolderName + "/" + S3_KEY;

        S3_KEY = S3_KEY.ToLower();
        PutObjectRequest request = new PutObjectRequest()
        {
            CannedACL = S3CannedACL.PublicRead,
            BucketName = BucketName,
            Key = S3_KEY,
            FilePath = LocalFullPath
        };
        var client = GetS3Client();
        client.PutObject(request);

您的实例的CPU点数可能已用完。T2实例是。一旦您的CPU消耗殆尽,您将经历一次减速

您可以从EC2控制台查看CPU信用余额,选择您的实例,然后转到监控选项卡。现在应该接近零了


对于不应降低速度的持续工作负载,您应该切换到其他不稳定的实例系列,例如M4系列。

您的实例的CPU点数可能已用完。T2实例是。一旦您的CPU消耗殆尽,您将经历一次减速

您可以从EC2控制台查看CPU信用余额,选择您的实例,然后转到监控选项卡。现在应该接近零了


对于不应减缓的持续工作负载,您应该切换到其他不稳定的实例系列,例如M4系列。

听起来很可能。还值得一提的是,每个EC2实例的网络带宽都是有限的,提供的带宽量取决于实例类型。较大的实例接收更多的网络带宽。然而,这并不能解释经济逐渐放缓的原因。我怀疑是这样。在哪里可以看到每个实例类型的带宽限制?听起来很可能。还值得一提的是,每个EC2实例的网络带宽都是有限的,提供的带宽量取决于实例类型。较大的实例接收更多的网络带宽。然而,这并不能解释经济逐渐放缓的原因。我怀疑是这样。在哪里可以看到每个实例类型的带宽限制?如果这是一次性或不经常需要的,您可能更喜欢使用。它有一个aws s3同步命令,可以并行复制文件。请参阅。如果这是一次性或不经常需要的,您可能更喜欢使用。它有一个aws s3同步命令,可以并行复制文件。