Apache flink 使用Apache Flink数据集API使用多个文本文件

Apache flink 使用Apache Flink数据集API使用多个文本文件,apache-flink,flink-batch,Apache Flink,Flink Batch,我正在使用DataSetAPI使用apacheflink编写一个批处理作业。我可以使用readTextFile()读取文本文件,但此函数只需一次读取一个文件 如果可能的话,我希望能够一个接一个地使用我目录中的所有文本文件,同时逐个处理它们,与使用DataSetAPI的批处理作业具有相同的功能 另一个选项是实现一个循环,使用多个文件执行多个作业,每个文件一个作业,而不是一个作业。但我认为这个解决方案不是最好的 有什么建议吗 如果我没有弄错文档,您可以使用ExecutionEnvironment.r

我正在使用
DataSet
API使用apacheflink编写一个批处理作业。我可以使用
readTextFile()
读取文本文件,但此函数只需一次读取一个文件

如果可能的话,我希望能够一个接一个地使用我目录中的所有文本文件,同时逐个处理它们,与使用
DataSet
API的批处理作业具有相同的功能

另一个选项是实现一个循环,使用多个文件执行多个作业,每个文件一个作业,而不是一个作业。但我认为这个解决方案不是最好的


有什么建议吗

如果我没有弄错文档,您可以使用
ExecutionEnvironment.readTextFile()
阅读整个路径。您可以在此处找到一个示例:

参考资料:


您解决了吗?