如何在flink流媒体中连续读取AzureDataLake中的文件内容?

如何在flink流媒体中连续读取AzureDataLake中的文件内容?,azure,apache-flink,flink-streaming,azure-data-lake,Azure,Apache Flink,Flink Streaming,Azure Data Lake,我正在使用flink streaming从AzureDataLake store中的文件读取数据。是否有任何连接器可用于在更新文件时从Azure DataLake中存储的文件连续读取数据。如何执行此操作?Azure DataLake store(ADLS)支持与HDFS兼容的REST API接口,并在此处进行了说明 目前没有API或连接器可用于在文件/文件夹更新时轮询ADL和通知/读取数据。这是可以使用上面提供的API在自定义连接器中实现的。连接器需要定期轮询ADLS帐户/文件夹以确定更改 谢谢

我正在使用flink streaming从AzureDataLake store中的文件读取数据。是否有任何连接器可用于在更新文件时从Azure DataLake中存储的文件连续读取数据。如何执行此操作?

Azure DataLake store(ADLS)支持与HDFS兼容的REST API接口,并在此处进行了说明

目前没有API或连接器可用于在文件/文件夹更新时轮询ADL和通知/读取数据。这是可以使用上面提供的API在自定义连接器中实现的。连接器需要定期轮询ADLS帐户/文件夹以确定更改

谢谢, 萨钦谢斯 项目经理 Azure数据湖