Apache spark Spark S3完成多部分上载错误
我使用Apache Spark进行数据处理,在上传到S3时,我偶尔会在日志中看到以下错误: AmazonClientException:如果没有被告知哪部分是最后一部分,则无法完成加密的多部分上载 由于spark在任务失败时会重试,因此大多数情况下这是正常的。但是,当重试次数耗尽导致作业失败时,我遇到了一些问题。除了重试之外,还有更好的方法来处理此类错误吗Apache spark Spark S3完成多部分上载错误,apache-spark,amazon-s3,Apache Spark,Amazon S3,我使用Apache Spark进行数据处理,在上传到S3时,我偶尔会在日志中看到以下错误: AmazonClientException:如果没有被告知哪部分是最后一部分,则无法完成加密的多部分上载 由于spark在任务失败时会重试,因此大多数情况下这是正常的。但是,当重试次数耗尽导致作业失败时,我遇到了一些问题。除了重试之外,还有更好的方法来处理此类错误吗 谢谢,这很有趣。没有看到这条消息,我目前正在协调大多数S3A Hadoop客户端开发 这是在Amazon EMR上发布的,还是一个官方的、独
谢谢,这很有趣。没有看到这条消息,我目前正在协调大多数S3A Hadoop客户端开发 这是在Amazon EMR上发布的,还是一个官方的、独立的ASF版本 如果是前者,您可以自行与论坛和任何ASF支持合同联系
如果是后者:在HADOOP项目(HADOOP common)下的issues.apache.org上提交JIRA,列出组件fs/s3,在spark CP上声明HADOOP JAR的确切版本,并包括完整的堆栈跟踪。这很有趣。没有看到这条消息,我目前正在协调大多数S3A Hadoop客户端开发 这是在Amazon EMR上发布的,还是一个官方的、独立的ASF版本 如果是前者,您可以自行与论坛和任何ASF支持合同联系
如果是后者:在HADOOP项目(HADOOP common)下的issues.apache.org上提交JIRA,列出组件fs/s3,在spark CP上声明HADOOP JAR的确切版本,并包括完整的堆栈跟踪。您可以添加更多关于异常/错误的信息吗?您可以添加更多关于异常/错误的信息吗?