Stream 不断增长的序列文件目录作为Apache Flink的流式输入
我有一个hadoop序列文件的目录,在这个目录中间断地添加更多的序列文件。我希望流式API的ApacheFlink作业的源是这个不断增长的序列文件目录。Apache Flink中有没有办法做到这一点?您可以在Stream 不断增长的序列文件目录作为Apache Flink的流式输入,stream,apache-flink,flink-streaming,Stream,Apache Flink,Flink Streaming,我有一个hadoop序列文件的目录,在这个目录中间断地添加更多的序列文件。我希望流式API的ApacheFlink作业的源是这个不断增长的序列文件目录。Apache Flink中有没有办法做到这一点?您可以在StreamExecutionEnvironment中尝试使用此API进行流式处理: readFile(FileInputFormat<OUT> inputFormat, String filePath, FileProcessingMode
StreamExecutionEnvironment
中尝试使用此API进行流式处理:
readFile(FileInputFormat<OUT> inputFormat,
String filePath,
FileProcessingMode watchType,
long interval)
readFile(FileInputFormat-inputFormat,
字符串文件路径,
FileProcessingMode监视类型,
长时间间隔)
但是我还没有找到hadoop序列文件的预定义的InputFormat
。也许你必须提供一个