Amazon s3 &引用;remoteContext对象没有属性“0”;

Amazon s3 &引用;remoteContext对象没有属性“0”;,amazon-s3,apache-spark,pyspark,Amazon S3,Apache Spark,Pyspark,我正在Databrick的云中运行Spark 1.4。我将一个文件加载到我的S3实例并挂载它。安装成功了。但我在创建RDD时遇到问题: 有什么想法吗 sc.parallelize([1,2,3]) rdd = sc.textFiles("/mnt/GDELT_2014_EVENTS/GDELT_2014.csv") 您将数据装载到dbfs中的工作做得很好,这很好,看起来您只是有一个小的输入错误。我怀疑您想使用sc.textFile而不是sc.textFiles。祝您在Spark的冒险中好运

我正在Databrick的云中运行Spark 1.4。我将一个文件加载到我的S3实例并挂载它。安装成功了。但我在创建RDD时遇到问题:

有什么想法吗

sc.parallelize([1,2,3])
rdd = sc.textFiles("/mnt/GDELT_2014_EVENTS/GDELT_2014.csv")

您将数据装载到dbfs中的工作做得很好,这很好,看起来您只是有一个小的输入错误。我怀疑您想使用
sc.textFile
而不是
sc.textFiles
。祝您在Spark的冒险中好运

sc.parallelize([1,2,3])
rdd = sc.textFiles("/mnt/GDELT_2014_EVENTS/GDELT_2014.csv")