Apache spark 在PySpark中读取多个文件?
有没有一种方法可以一次读取多个序列文件Apache spark 在PySpark中读取多个文件?,apache-spark,pyspark,Apache Spark,Pyspark,有没有一种方法可以一次读取多个序列文件 sc.SequnceFile(['filepath_1.seq','filepath_2.seq','filepath_3.seq']) 使用全局模式 sc.SequnceFile('filepath_*.seq') 或逗号分隔字符串: sc.SequnceFile(",".join(['filepath_1.seq', 'filepath_2.seq', 'filepath_3.seq']))
sc.SequnceFile(['filepath_1.seq','filepath_2.seq','filepath_3.seq'])
使用全局模式
sc.SequnceFile('filepath_*.seq')
或逗号分隔字符串:
sc.SequnceFile(",".join(['filepath_1.seq', 'filepath_2.seq', 'filepath_3.seq']))