Apache flink FlinkScala项目依赖于FlinkJava项目,因此调用java映射而不是scala映射
我想创建一个用scala编写的flink项目 当我导入Apache flink FlinkScala项目依赖于FlinkJava项目,因此调用java映射而不是scala映射,apache-flink,flink-streaming,Apache Flink,Flink Streaming,我想创建一个用scala编写的flink项目 当我导入 'flink-scala_2.11', 'flink-streaming-scala_2.11' 'flink-core', 我可以运行如下代码: val someEventScalaStream = myScalaStreamm.map{x=>x.Part3} (it is using scala map function) 但我看到每一个: flink-connector-rabbitmq_2.11 flink-connec
'flink-scala_2.11',
'flink-streaming-scala_2.11'
'flink-core',
我可以运行如下代码:
val someEventScalaStream = myScalaStreamm.map{x=>x.Part3} (it is using scala map function)
但我看到每一个:
flink-connector-rabbitmq_2.11
flink-connector-filesystem_2.11
flink-clients_2.11
所有这些都依赖于“flink java”
因此,当所有这些都导入到我的解决方案中时,项目试图使用java版本的map函数&不编译
有解决办法吗
谢谢。通常,java和scala的API放在单独的包中。所以一定要使用正确的。例如,对于您拥有的数据流 爪哇: 斯卡拉:
org.apache.flink.streaming.api.scala.DataStream
在这种情况下,建议在scala中导入:
org.apache.flink.streaming.api.scala._
如果这还不包括您的问题,您是否可以在使用映射函数的java版本时发布一个具体的示例
org.apache.flink.streaming.api.scala._