Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/cassandra/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Stream 不断增长的序列文件目录作为Apache Flink的流式输入_Stream_Apache Flink_Flink Streaming - Fatal编程技术网

Stream 不断增长的序列文件目录作为Apache Flink的流式输入

Stream 不断增长的序列文件目录作为Apache Flink的流式输入,stream,apache-flink,flink-streaming,Stream,Apache Flink,Flink Streaming,我有一个hadoop序列文件的目录,在这个目录中间断地添加更多的序列文件。我希望流式API的ApacheFlink作业的源是这个不断增长的序列文件目录。Apache Flink中有没有办法做到这一点?您可以在StreamExecutionEnvironment中尝试使用此API进行流式处理: readFile(FileInputFormat<OUT> inputFormat, String filePath, FileProcessingMode

我有一个hadoop序列文件的目录,在这个目录中间断地添加更多的序列文件。我希望流式API的ApacheFlink作业的源是这个不断增长的序列文件目录。Apache Flink中有没有办法做到这一点?

您可以在
StreamExecutionEnvironment
中尝试使用此API进行流式处理:

readFile(FileInputFormat<OUT> inputFormat,
         String filePath,
         FileProcessingMode watchType,
         long interval)
readFile(FileInputFormat-inputFormat,
字符串文件路径,
FileProcessingMode监视类型,
长时间间隔)
但是我还没有找到hadoop序列文件的预定义的
InputFormat
。也许你必须提供一个