在Spark python中从S3中提取带有星号(*)符号的文件路径

在Spark python中从S3中提取带有星号(*)符号的文件路径,python,apache-spark,pyspark,glob,Python,Apache Spark,Pyspark,Glob,我的一个文件具有以下路径: s3://bucket/folder/file[1]*[2] 现在,当我试图读取它时,使用sc.textFile命令,由于星号(*),它无法读取它 有没有办法正确阅读它 (我试过*,但没用) 任何帮助都将不胜感激。Spark使用Hadoop的globs,即 正如您所看到的,[]也是特殊的字符。也请尝试转义括号。我不知道您正在使用的软件包,但对于两者,我都使用urlparse.quote\u plus 您能提供所使用的代码吗?尝试过*但不起作用。您能具体说明“不起作

我的一个文件具有以下路径:

s3://bucket/folder/file[1]*[2]
现在,当我试图读取它时,使用
sc.textFile
命令,由于星号(*),它无法读取它

有没有办法正确阅读它

(我试过*,但没用)


任何帮助都将不胜感激。

Spark使用Hadoop的globs,即


正如您所看到的,
[]
也是特殊的字符。也请尝试转义括号。

我不知道您正在使用的软件包,但对于两者,我都使用urlparse.quote\u plus


您能提供所使用的代码吗?尝试过*但不起作用。您能具体说明“不起作用”的含义吗?它是失败了还是没有加载任何东西?你能分享你运行的完整的spark代码吗?也许用替换它们?像这样:``文件?1?2?``这并不理想,但这些都是可怕的名字。