Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/amazon-s3/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/extjs/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Amazon s3 卡夫卡汇流S3连接器“;找不到类“;_Amazon S3_Apache Kafka_Apache Kafka Connect_Confluent Platform - Fatal编程技术网

Amazon s3 卡夫卡汇流S3连接器“;找不到类“;

Amazon s3 卡夫卡汇流S3连接器“;找不到类“;,amazon-s3,apache-kafka,apache-kafka-connect,confluent-platform,Amazon S3,Apache Kafka,Apache Kafka Connect,Confluent Platform,我正在尝试一个简单的快速入门示例,我得到: 原因:org.apache.kafka.connect.errors.ConnectException:未能 查找实现连接器且名称匹配的任何类 io.confluent.connect.s3.s3连接器,可用的连接器有: io.confluent.connect.jdbc.JdbcSinkConnector, io.confluent.connect.jdbc.JdbcSourceConnector, org.apache.kafka.connect.

我正在尝试一个简单的快速入门示例,我得到:

原因:org.apache.kafka.connect.errors.ConnectException:未能 查找实现连接器且名称匹配的任何类 io.confluent.connect.s3.s3连接器,可用的连接器有: io.confluent.connect.jdbc.JdbcSinkConnector, io.confluent.connect.jdbc.JdbcSourceConnector, org.apache.kafka.connect.tools.MockSinkConnector, org.apache.kafka.connect.file.FileStreamSourceConnector, org.apache.kafka.connect.sink.SinkConnector, io.confluent.connect.elasticsearch.elasticsearch连接器, org.apache.kafka.connect.tools.MockConnector, io.confluent.connect.hdfs.HdfsSinkConnector, org.apache.kafka.connect.file.FileStreamSinkConnector, org.apache.kafka.connect.tools.VerifiableSourceConnector, org.apache.kafka.connect.tools.VerifiableSinkConnector, org.apache.kafka.connect.tools.SchemaSourceConnector, org.apache.kafka.connect.source.SourceConnector, org.apache.kafka.connect.tools.MockSourceConnector, io.confluent.connect.hdfs.tools.SchemaSourceConnector

这是一个全新的虚拟机,运行通过Debian apt软件包安装的最新Confluent Platform 3.2.0。我可以看到它肯定在运行CP3.2.0。为什么S3连接器类不可用

不确定这是否相关,但如果相关:

ls -l /etc/ | grep kafka
drwxr-xr-x 2 root root           4096 Apr  5 04:41 kafka
drwxr-xr-x 2 root root           4096 Apr  5 04:39 kafka-connect-elasticsearch
drwxr-xr-x 2 root root           4096 Apr  5 04:39 kafka-connect-hdfs
drwxr-xr-x 2 root root           4096 Apr  5 04:39 kafka-connect-jdbc
drwxr-xr-x 2 root root           4096 Apr  5 04:39 kafka-rest
文档引用了一个kafka-connect-s3目录,该目录显然不存在于安装中


我使用的是Confluent平台的开源版本,但据介绍,开源版本包括Confluent Amazon S3 Connect连接器。

作为解决办法,您可以从


在那里,您可以在
etc
share/java
目录中找到
kafka-connect-s3

这是3.2.0中的一个打包错误,在最新的Confluent版本中已修复,截至今天(2017年5月17日)为3.2.1

在3.2.1版本中,S3连接器也有一个bug修复程序,因此最好还是使用该版本