Apache spark 如何将文件添加到Flink中的executor机器?

Apache spark 如何将文件添加到Flink中的executor机器?,apache-spark,apache-flink,Apache Spark,Apache Flink,我在想办法给Flink中的执行者添加一些文件。就像Spark中的SparkContext.addFile()SparkFiles.get()一样,Flink中是否有任何可能的API?谢谢。您可以查看文档。ExecutionEnvironment类的Scala API文档作为Flink的入口点,具有registerCachedFile方法。这可以从分布式存储(例如hdfs)加载文件,并使代码中的所有UDF都可以使用该文件 这是指向文档中说明相同内容的页面的链接 查看广播变量部分谢谢,伙计,这很有帮

我在想办法给Flink中的执行者添加一些文件。就像Spark中的
SparkContext.addFile()
SparkFiles.get()
一样,Flink中是否有任何可能的API?谢谢。

您可以查看文档。ExecutionEnvironment类的Scala API文档作为Flink的入口点,具有registerCachedFile方法。这可以从分布式存储(例如hdfs)加载文件,并使代码中的所有UDF都可以使用该文件

这是指向文档中说明相同内容的页面的链接
查看广播变量部分

谢谢,伙计,这很有帮助:)