Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/amazon-web-services/13.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon web services DynamoDB的内部服务器错误率高_Amazon Web Services_Amazon Dynamodb - Fatal编程技术网

Amazon web services DynamoDB的内部服务器错误率高

Amazon web services DynamoDB的内部服务器错误率高,amazon-web-services,amazon-dynamodb,Amazon Web Services,Amazon Dynamodb,因此,根据Amazon的DynamoDB,您有时可能会收到500个错误,这是意料之中的行为(他们没有具体说明为什么会发生这种情况或发生的频率)。在这种情况下,假设您使用指数退避实现重试,大约从50毫秒开始 在我的例子中,我并行地处理和批量写入大量数据(30个节点,每个节点运行大约5个并发线程)。我预计这需要很长时间 我的哈希键相当平衡(用户id),吞吐量设置为20000个写容量单位 当我开始工作时,一切都很顺利。我达到了吞吐量并开始后退,有一段时间我在最大容量附近很好地振荡。然而,很快我就开始收

因此,根据Amazon的DynamoDB,您有时可能会收到500个错误,这是意料之中的行为(他们没有具体说明为什么会发生这种情况或发生的频率)。在这种情况下,假设您使用指数退避实现重试,大约从50毫秒开始

在我的例子中,我并行地处理和批量写入大量数据(30个节点,每个节点运行大约5个并发线程)。我预计这需要很长时间

我的哈希键相当平衡(用户id),吞吐量设置为20000个写容量单位

当我开始工作时,一切都很顺利。我达到了吞吐量并开始后退,有一段时间我在最大容量附近很好地振荡。然而,很快我就开始收到500个响应,其中InternalServerError是个例外。当然,没有提供其他信息。我一次又一次地后退,直到我在重试之间等待了大约1分钟,所有的东西都卡住了,我再也得不到200分了

我觉得我的查询,或者具体的查询肯定有问题,但我没有办法调查。除了“内部”和“错误”部分之外,根本没有关于我的错误从服务器返回的信息


哈尔普?

看来我可能说得太早了。如果我等待一段时间,错误就会减少。我想在恒定负载下,响应的质量可能会有很大的变化。您是否声明了任何LSI?我的理解是,额外的索引需要额外的写入容量。谢谢@andreimarinescu,是的,我确实有一个二级索引,但我会在吞吐量容量中考虑它。但我不认为吞吐量是问题所在。当我收到节流错误时,我会自动后退。问题是我开始得到的只是非常普通的“InternalServerError”响应。来自任何AWS API的InternalServerError意味着AWS方面有问题。我建议直接联系AWS。谢谢@prestomation,我确实联系过他们,是的,他们可以解决。虽然我从来没有得到一个正确的解释。。。