Java 无法读取flink 1.10.0中的本地文件

Java 无法读取flink 1.10.0中的本地文件,java,apache-flink,Java,Apache Flink,我正在尝试读取FLINK中的本地文件。我正在犯错误 java.lang.NoClassDefFoundError: org/apache/hadoop/yarn/exceptions/YarnException at java.lang.Class.forName0(Native Method) at java.lang.Class.forName(Class.java:264) at org.apache.flink.client.cli.Cl

我正在尝试读取FLINK中的本地文件。我正在犯错误

 java.lang.NoClassDefFoundError: org/apache/hadoop/yarn/exceptions/YarnException
        at java.lang.Class.forName0(Native Method)
        at java.lang.Class.forName(Class.java:264)
        at org.apache.flink.client.cli.CliFrontend.loadCustomCommandLine(CliFrontend.java:1076)
        at org.apache.flink.client.cli.CliFrontend.loadCustomCommandLines(CliFrontend.java:1030)
        at org.apache.flink.client.cli.CliFrontend.main(CliFrontend.java:957)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.yarn.exceptions.YarnException
        at java.net.URLClassLoader.findClass(URLClassLoader.java:382)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
        at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
        ... 5 more
2020-04-26 20:47:56,003 INFO  org.apache.flink.core.fs.FileSystem                           - Hadoop is not in the classpath/dependencies. The extended set of supported File Systems via Hadoop is not available.
我正在使用下面的API

dataStream = streamExecutionEnvironment.readTextFile(params.get("input"));

读取文件是用于读取配置参数还是用作源

PARAMS

parameters=ParameterTool.fromPropertiesFile(parameters.get(“configFile”);
来源

env.readFile(新文本输入格式(新路径(输入文件)),输入文件,文件处理模式.PROCESS\u,1000)
.uid(“导入文件”).name(“从文件导入”).setParallelism(1).rebalance();
我们还开发了一个库,用于直接从JSON格式的文件读取类型化对象,该文件将一起解析,而不是逐行解析。该库在maven上提供

final StreamExecutionEnvironment env=StreamExecutionEnvironment.getExecutionEnvironment();
final JsonFileConsumerConfig config=new JsonFileConsumerConfig(BusinessConfiguration.class)
.setPath(“s3://.json”);
最终JsonFileConsumer消费者=新的JsonFileConsumer(配置);
环境设置并行性(parallelism);
consumer.getJsonFileStream(env)
.addSink(…);
execute();

读取文件是用于读取配置参数还是用作源

PARAMS

parameters=ParameterTool.fromPropertiesFile(parameters.get(“configFile”);
来源

env.readFile(新文本输入格式(新路径(输入文件)),输入文件,文件处理模式.PROCESS\u,1000)
.uid(“导入文件”).name(“从文件导入”).setParallelism(1).rebalance();
我们还开发了一个库,用于直接从JSON格式的文件读取类型化对象,该文件将一起解析,而不是逐行解析。该库在maven上提供

final StreamExecutionEnvironment env=StreamExecutionEnvironment.getExecutionEnvironment();
final JsonFileConsumerConfig config=new JsonFileConsumerConfig(BusinessConfiguration.class)
.setPath(“s3://.json”);
最终JsonFileConsumer消费者=新的JsonFileConsumer(配置);
环境设置并行性(parallelism);
consumer.getJsonFileStream(env)
.addSink(…);
execute();