使用Scala从Flink中的JDBC源创建数据集

使用Scala从Flink中的JDBC源创建数据集,scala,jdbc,apache-flink,Scala,Jdbc,Apache Flink,我试图使用Flink中的Scala从JDBC源代码创建一个数据集,所有文档/其他问题似乎都使用Java。我对泛型类型有一些问题 到目前为止,我已经: 这会产生一个错误: error: could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[?0] env.createInput(inp

我试图使用Flink中的Scala从JDBC源代码创建一个数据集,所有文档/其他问题似乎都使用Java。我对泛型类型有一些问题

到目前为止,我已经:

这会产生一个错误:

error: could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[?0]
                    env.createInput(inputFormat)
我也试过了

var tuple=(“”,0)
inputFormat.nextRecord(元组)
这导致了错误:

error: type mismatch;
 found   : (String, Int)
 required: ?0
最后我试着:

inputFormat.nextRecord(389;)
这导致:

found   : x$1.type (with underlying type ?0)
 required: ?0

因此,问题是如何使用Scala在Flink中设置JDBC连接/我错在哪里?

修复第一个问题:

error: could not find implicit value for evidence parameter of type org.apache.flink.api.common.typeinfo.TypeInformation[?0]
                    env.createInput(inputFormat)
您需要添加以下导入语句

import org.apache.flink.api.scala._ 

这并没有解决这个错误。我在齐柏林飞艇,所以这可能会增加一定程度的复杂性。其他想法?我不熟悉齐柏林飞艇。也许会问他们的用户邮件列表?
import org.apache.flink.api.scala._