Apache flink JSONDeserializationSchema无法解析为类型
在JSONDeserializationSchema中获取错误:无法将JSONDeserializationSchema解析为类型Apache flink JSONDeserializationSchema无法解析为类型,apache-flink,Apache Flink,在JSONDeserializationSchema中获取错误:无法将JSONDeserializationSchema解析为类型 DataStream<ObjectNode> messageStream = env.addSource( new FlinkKafkaConsumer09<>("test2" , new **JSONDeserializationSchema()
DataStream<ObjectNode> messageStream = env.addSource(
new FlinkKafkaConsumer09<>("test2"
, new **JSONDeserializationSchema()**,properties));
messageStream.rebalance().map(new MapFunction<ObjectNode, String>() {
private static final long serialVersionUID = -6867736771747690202L;
@Override
public String map(ObjectNode value) throws Exception {
return "Kafka and Flink says: " + value.get("key").asText();
}
}).print();
DataStream messageStream=env.addSource(
新FlinkKafkaConsumer09(“测试2”
,新**JSONDeserializationSchema()**,属性));
messageStream.rebalance().map(新的映射函数(){
私有静态最终长serialVersionUID=-6867736771747690202L;
@凌驾
公共字符串映射(ObjectNode值)引发异常{
return“Kafka和Flink说:“+value.get(“key”).asText();
}
}).print();
@Noobie,在Flink 1.8中删除了JSONDeserializationSchema()
在连接Kafka获取JSON数据时,我也遇到了类似的问题。
您可以在下面的链接中找到不推荐和后来删除的JSONDeserializationSchema的替代方法:
我希望它有帮助:) @Noobie,在Flink 1.8中删除了JSONDeserializationSchema() 在连接Kafka获取JSON数据时,我也遇到了类似的问题。 您可以在下面的链接中找到不推荐和后来删除的JSONDeserializationSchema的替代方法:
我希望它有帮助:) 你到底有什么问题?请上载错误文本。JSONDeserializationSchema无法解析为@hamedbaziyadin new JSONDeserializationSchema()类型:错误表示JSONDeserializationSchema无法解析为类型编译时是否发生这种情况?您可能在某个地方的导入中有输入错误。是的,它发生在编译时。import语句如下import org.apache.flink.streaming.util.serialization.JSONDeserializationSchema;你到底有什么问题?请上载错误文本。JSONDeserializationSchema无法解析为@hamedbaziyadin new JSONDeserializationSchema()类型:错误表示JSONDeserializationSchema无法解析为类型编译时是否发生这种情况?您可能在某个地方的导入中有输入错误。是的,它发生在编译时。import语句如下import org.apache.flink.streaming.util.serialization.JSONDeserializationSchema;