Apache flink 是否有与Spark'等价的产品;Apache Flink中的SF.input_file_name()函数?
在Spark中有一个函数,我可以使用它为每一行创建一个具有路径/文件名的新列Apache flink 是否有与Spark'等价的产品;Apache Flink中的SF.input_file_name()函数?,apache-flink,flink-sql,Apache Flink,Flink Sql,在Spark中有一个函数,我可以使用它为每一行创建一个具有路径/文件名的新列 df.withColumn("path", f.input_file_name()) 我有一个数据集,他们在其中嵌入了MAC地址文件名,但它没有出现在实际内容中,因此我需要从文件名中提取MAC地址并嵌入到内容中 在Flink中是否有任何方法实现Spark的输入文件名的行为?我特别感兴趣的是将它与Flink表SQL一起使用
df.withColumn("path", f.input_file_name())
我有一个数据集,他们在其中嵌入了MAC地址文件名,但它没有出现在实际内容中,因此我需要从文件名中提取MAC地址并嵌入到内容中
在Flink中是否有任何方法实现Spark的输入文件名
的行为?我特别感兴趣的是将它与Flink表SQL一起使用