使用Scala从Flink中的JDBC源创建数据集
我试图使用Flink中的Scala从JDBC源代码创建一个数据集,所有文档/其他问题似乎都使用Java。我对泛型类型有一些问题 到目前为止,我已经: 这会产生一个错误:使用Scala从Flink中的JDBC源创建数据集,scala,jdbc,apache-flink,Scala,Jdbc,Apache Flink,我试图使用Flink中的Scala从JDBC源代码创建一个数据集,所有文档/其他问题似乎都使用Java。我对泛型类型有一些问题 到目前为止,我已经: 这会产生一个错误: error: could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[?0] env.createInput(inp
error: could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[?0]
env.createInput(inputFormat)
我也试过了
var tuple=(“”,0)
inputFormat.nextRecord(元组)
这导致了错误:
error: type mismatch;
found : (String, Int)
required: ?0
最后我试着:
inputFormat.nextRecord(389;)
这导致:
found : x$1.type (with underlying type ?0)
required: ?0
因此,问题是如何使用Scala在Flink中设置JDBC连接/我错在哪里?修复第一个问题:
error: could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[?0]
env.createInput(inputFormat)
您需要添加以下导入语句
import org.apache.flink.api.scala._
这并没有解决这个错误。我在齐柏林飞艇,所以这可能会增加一定程度的复杂性。其他想法?我不熟悉齐柏林飞艇。也许会问他们的用户邮件列表?
import org.apache.flink.api.scala._