Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/apache-kafka/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Kafka JDBC源连接器和Oracle DB错误_Jdbc_Apache Kafka - Fatal编程技术网

Kafka JDBC源连接器和Oracle DB错误

Kafka JDBC源连接器和Oracle DB错误,jdbc,apache-kafka,Jdbc,Apache Kafka,虽然我的Kafka JDBC连接器适用于简单表,但对于大多数其他表,它会失败,并出现以下错误: 任务引发了一个未捕获且不可恢复的异常(org.apache.kafka.connect.runtime.WorkerTask:179) org.apache.kafka.connect.errors.ConnectException:错误处理程序中超出了容差 位于org.apache.kafka.connect.runtime.errors.RetryWithToleranceOperator.exe

虽然我的Kafka JDBC连接器适用于简单表,但对于大多数其他表,它会失败,并出现以下错误:

任务引发了一个未捕获且不可恢复的异常(org.apache.kafka.connect.runtime.WorkerTask:179) org.apache.kafka.connect.errors.ConnectException:错误处理程序中超出了容差 位于org.apache.kafka.connect.runtime.errors.RetryWithToleranceOperator.execAndHandleError(RetryWithToleranceOperator.java:178) 位于org.apache.kafka.connect.runtime.errors.RetryWithToleranceOperator.execute(RetryWithToleranceOperator.java:104) 位于org.apache.kafka.connect.runtime.WorkerSourceTask.convertedTransformedRecord(WorkerSourceTask.java:290) 位于org.apache.kafka.connect.runtime.WorkerSourceTask.sendRecords(WorkerSourceTask.java:316) 位于org.apache.kafka.connect.runtime.WorkerSourceTask.execute(WorkerSourceTask.java:240) 位于org.apache.kafka.connect.runtime.WorkerTask.doRun(WorkerTask.java:177) 位于org.apache.kafka.connect.runtime.WorkerTask.run(WorkerTask.java:227) 位于java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) 在java.util.concurrent.FutureTask.run(FutureTask.java:266)处 位于java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) 位于java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) 运行(Thread.java:748) 原因:java.lang.IllegalArgumentException:无效小数位数:127(大于精度:64) 位于org.apache.avro.LogicalTypes$Decimal.validate(LogicalTypes.java:231) 位于org.apache.avro.LogicalType.addToSchema(LogicalType.java:68) 位于org.apache.avro.LogicalTypes$Decimal.addToSchema(LogicalTypes.java:201) 在io.confluent.connect.avro.AvroData.fromConnectSchema(AvroData.java:943)处 在io.confluent.connect.avro.AvroData.addAvroRecordField(AvroData.java:1058) 在io.confluent.connect.avro.AvroData.fromConnectSchema(AvroData.java:899)处 在io.confluent.connect.avro.AvroData.fromConnectSchema(AvroData.java:731)中 在io.confluent.connect.avro.AvroData.fromConnectSchema(AvroData.java:725)处 在io.confluent.connect.avro.AvroData.fromConnectData(AvroData.java:364)处 在io.confluent.connect.avro.AvroConverter.fromConnectData(AvroConverter.java:80)中 位于org.apache.kafka.connect.storage.Converter.fromConnectData(Converter.java:62) 位于org.apache.kafka.connect.runtime.WorkerSourceTask.lambda$convertTransformedRecord$2(WorkerSourceTask.java:290) 位于org.apache.kafka.connect.runtime.errors.RetryWithToleranceOperator.execAndRetry(RetryWithToleranceOperator.java:128) 位于org.apache.kafka.connect.runtime.errors.RetryWithToleranceOperator.execAndHandleError(RetryWithToleranceOperator.java:162) ... 还有11个

我正在使用以下命令创建连接器:

curl-X柱http://localhost:8083/connectors -H“内容类型:application/json”-d'{“name”:“jdbc_source_oracle_03”,“config”:{“connector.class”:“io.confluent.connect.jdbc.jdbc.JdbcSourceConnector”,“connection.url”:“jdbc:oracle:thin:@//XOXO:1521/XOXO”,“connection.user”:“XOXO”,“connection.password”:“XOXO”,“numeric.mapping”:“最佳匹配”,“mode”:”:“timestamp”、“poll.interval.ms”:“1000”、“validate.non.null”:“false”、“table.whitelist”:“POLICY”、“timestamp.column.name”:“CREATED_DATE”、“topic.prefix”:“ora-”、“transforms”:“addTopicSuffix、InsertTopic、InsertSourceDetails、copyFieldToKey、extractValuefromStruct”、“transforms.InsertTopic.type”:“org.apache.kafka.connect.transforms.InsertField$Value”transforms.InsertTopic.topic.field:“messagetopic”,“transforms.InsertSourceDetails.type:“org.apache.kafka.connect.transforms.InsertField$Value”,“transforms.InsertSourceDetails.static.field:“messagesource”,“transforms.InsertSourceDetails.static.Value:“asgard上Oracle的JDBC源连接器”,“transforms.addTopicSuffix.type:”org.apache.kafka.connect.transforms.RegexRouter、“transforms.addTopicSuffix.regex”:“(.*”,“transforms.addTopicSuffix.replacement”:“$1-jdbc-02”,“transforms.copyFieldToKey.type”:“org.apache.kafka.connect.transforms.ValueToKey”,“transforms.copyFieldToKey.fieldtokey”:“ID”,“transforms.extractValuefromStruct.type”:”org.apache.kafka.connect.transforms.ExtractField$Key“,”transforms.extractValuefromStruct.field“:“ID”}”


问题与没有声明精度和比例的数字列有关。 罗宾·莫法特在这里解释得很好:

这似乎是相关部分
无效小数位数:127(大于精度:64)
。请检查
浮点
列的处理。