Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/306.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python pyspark.sql.DataFrameReader是否在S3上并行读取单个csv文件?_Python_Apache Spark_Amazon S3_Pyspark_Apache Spark Sql - Fatal编程技术网

Python pyspark.sql.DataFrameReader是否在S3上并行读取单个csv文件?

Python pyspark.sql.DataFrameReader是否在S3上并行读取单个csv文件?,python,apache-spark,amazon-s3,pyspark,apache-spark-sql,Python,Apache Spark,Amazon S3,Pyspark,Apache Spark Sql,因此,我正在查看pyspark文档并使用 我想知道,当我给它一个S3路径时,它会并行处理单个csv文件吗?每个工作节点如何在S3上读取相同的csv文件?每当我们从S3将文件加载到pyspark时,首先将文件转储到本地hdfs temp或本地系统temp。

因此,我正在查看pyspark文档并使用


我想知道,当我给它一个S3路径时,它会并行处理单个csv文件吗?每个工作节点如何在S3上读取相同的csv文件?

每当我们从S3将文件加载到pyspark时,首先将文件转储到本地hdfs temp或本地系统temp。