Apache flink 类型信息未定义 对象事件消费者{ def mainargs:数组[字符串]:单位={ val env=ExecutionEnvironment.getExecutionEnvironment val data1=env.readTextFilefile:////some_events.txt; //定义数据源 data1.map新的myMapFunction } 类myMapFunction扩展了MapFunction[字符串,单位] { 覆盖def mapin:字符串:单位={ 普林特宁 } } }

Apache flink 类型信息未定义 对象事件消费者{ def mainargs:数组[字符串]:单位={ val env=ExecutionEnvironment.getExecutionEnvironment val data1=env.readTextFilefile:////some_events.txt; //定义数据源 data1.map新的myMapFunction } 类myMapFunction扩展了MapFunction[字符串,单位] { 覆盖def mapin:字符串:单位={ 普林特宁 } } },apache-flink,Apache Flink,真的被这个编译错误困扰了很长时间,请帮忙 Error:(27, 15) could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[String] flatMap { _.split("\n")}.filter(_.nonEmpty).map (new myMapFunction) Error:(24, 15) no

真的被这个编译错误困扰了很长时间,请帮忙

Error:(27, 15) could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[String]
      flatMap { _.split("\n")}.filter(_.nonEmpty).map (new myMapFunction)

Error:(24, 15) not enough arguments for method map: (implicit evidence$2: org.apache.flink.api.common.typeinfo.TypeInformation[Unit], implicit evidence$3: scala.reflect.ClassTag[Unit])org.apache.flink.api.scala.DataSet[Unit].
Unspecified value parameters evidence$2, evidence$3.
    data1.map (new myMapFunction)
              ^
              ^

使用Flink的Scala数据集API时,有必要将以下导入添加到代码中:import org.apache.Flink.API.Scala.\


使用Flink的Scala数据流API时,必须导入import org.apache.Flink.streaming.API.Scala.\


原因是包对象包含一个生成缺少的TypeInformation实例的函数。

当使用Flink的Scala数据集API时,有必要将以下导入添加到代码中:import org.apache.Flink.API.Scala.\ux


使用Flink的Scala数据流API时,必须导入import org.apache.Flink.streaming.API.Scala.\

原因是包对象包含一个生成缺少的TypeInformation实例的函数