Apache spark Scala的EC2-S3端点上的Spark未解析

Apache spark Scala的EC2-S3端点上的Spark未解析,apache-spark,amazon-s3,spark-ec2,Apache Spark,Amazon S3,Spark Ec2,您好,我已经成功地在AWS EC2上安装了一个Spark群集,持续了2个月,但最近我在创建脚本中开始出现以下错误。它基本上无法设置Scala包,也无法解析源S3端点: --2017-02-28 17:51:30-- (try: 6) http://s3.amazonaws.com/spark-related-packages/scala-2.10.3.tgz Connecting to s3.amazonaws.com (s3.amazonaws.com)|52.216.0.83|:80..

您好,我已经成功地在AWS EC2上安装了一个Spark群集,持续了2个月,但最近我在创建脚本中开始出现以下错误。它基本上无法设置Scala包,也无法解析源S3端点:

--2017-02-28 17:51:30--  (try: 6)  http://s3.amazonaws.com/spark-related-packages/scala-2.10.3.tgz
Connecting to s3.amazonaws.com (s3.amazonaws.com)|52.216.0.83|:80... failed: Connection timed out.
Retrying.
这是我在Github中的源Spark版本

https://github.com/amplab/spark-ec2/archive/branch-2.0.zip
上面的Scala错误来自中的init.sh

spark-ec2/scala/init.sh

是否有人可以修复Github目录中的S3端点,或者开源Spark社区不再支持它?

Amazon AWS今天面临巨大的停机,主要影响S3服务。查看新闻。

AWS S3当前(17年2月28日,UTC时间18:25)停机。