Amazon web services AWS DynamoDB-数据管道实际写入容量消耗

Amazon web services AWS DynamoDB-数据管道实际写入容量消耗,amazon-web-services,amazon-dynamodb,amazon-data-pipeline,data-pipeline,Amazon Web Services,Amazon Dynamodb,Amazon Data Pipeline,Data Pipeline,我已经创建了一个数据管道,从S3中提取数据并将其推送到DynamoDB中。 管道已成功开始运行 我已将写入容量设置为20000个单位,几个小时后写入量在半小时内减少,现在它仍以3个单位的写入容量运行 (写入容量没有更改。管道从阈值开始,然后减少到3个单元,并继续以此速率运行) 减少的原因可能是什么?有没有办法加快速度? 谢谢。我在这里假设您使用现成的datapipeline模板将数据从S3复制到DynamoDB。该管道不会改变dynamodb表的容量(除非您修改管道以添加代码以编程方式增加它)。

我已经创建了一个数据管道,从S3中提取数据并将其推送到DynamoDB中。
管道已成功开始运行
我已将写入容量设置为20000个单位,几个小时后写入量在半小时内减少,现在它仍以3个单位的写入容量运行


(写入容量没有更改。管道从阈值开始,然后减少到3个单元,并继续以此速率运行)

减少的原因可能是什么?有没有办法加快速度?

谢谢。

我在这里假设您使用现成的datapipeline模板将数据从S3复制到DynamoDB。该管道不会改变dynamodb表的容量(除非您修改管道以添加代码以编程方式增加它)。因此,如果DynamoDB的写入容量从20000变为3,那么一定是有人手动完成的。我建议您在AWS帐户中启用CloudTrail,这样您就可以在下次发生同样的事情时发现是谁/何时进行了更改。

写入容量没有改变。管道从阈值开始,然后减少到3个单元,并继续以该速率运行。谢谢