Apache kafka 在分布式模式下运行kafka connect时出现的问题

Apache kafka 在分布式模式下运行kafka connect时出现的问题,apache-kafka,hdfs,apache-kafka-connect,confluent-platform,Apache Kafka,Hdfs,Apache Kafka Connect,Confluent Platform,我们正在测试分布式模式下的kafka connect,以将主题记录从kafka拉到HDFS。我们有两个箱子。卡夫卡和zookeeper守护进程正在运行的守护进程。我们在此框中保留了一个kafka connect实例。我们还有另一个框,其中有HDFS namenode。我们在这里保留了另一个kafka connect的实例 我们在第一个框中启动了卡夫卡、动物园管理员和卡夫卡连接。我们也在第二个盒子里启动了卡夫卡连接。现在根据confluent文档,我们必须使用RESTAPI启动HDFS连接器(或任

我们正在测试分布式模式下的kafka connect,以将主题记录从kafka拉到HDFS。我们有两个箱子。卡夫卡和zookeeper守护进程正在运行的守护进程。我们在此框中保留了一个kafka connect实例。我们还有另一个框,其中有HDFS namenode。我们在这里保留了另一个kafka connect的实例

我们在第一个框中启动了卡夫卡、动物园管理员和卡夫卡连接。我们也在第二个盒子里启动了卡夫卡连接。现在根据confluent文档,我们必须使用RESTAPI启动HDFS连接器(或任何其他连接器)。所以,在这两个框中启动kafka connect之后,我们尝试通过REST API启动连接器。我们尝试了以下命令:-

curl -X POST -H "HTTP/1.1 Host: ip-10-16-34-57.ec2.internal:9092 Content-Type: application/json Accept: application/json" --data '{"name": "hdfs-sink", "config": {"connector.class":"io.confluent.connect.hdfs.HdfsSinkConnector", "format.class":"com.qubole.streamx.SourceFormat", "tasks.max":"1", "hdfs.url":"hdfs://ip-10-16-37-124:9000", "topics":"Prd_IN_TripAnalysis,Prd_IN_Alerts,Prd_IN_GeneralEvents", "partitioner.class":"io.confluent.connect.hdfs.partitioner.DailyPartitioner", "locale":"", "timezone":"Asia/Calcutta" }}' http://ip-10-16-34-57.ec2.internal:8083/connectors
我们一按此处的enter键,就会得到以下响应:

    <html>
    <head>
    <meta http-equiv="Content-Type" content="text/html;charset=ISO-8859-1"/>
    <title>Error 415 </title>
    </head>
    <body>
    <h2>HTTP ERROR: 415</h2>
    <p>Problem accessing /connectors. Reason:
    <pre>    Unsupported Media Type</pre></p>
    <hr /><i><small>Powered by Jetty://</small></i>
    </body>
    </html>

这里的问题是什么?我们是否缺少在分布式模式下启动kafka connect以使用HDFS连接器的功能。独立模式下的kafka connect工作正常。

要上载连接器,这是一个PUT命令,而不是POST命令:

另一方面,我认为您的curl命令可能是错误的:

  • 每个头需要一个-H开关,将所有头放在一个-H参数中不是它的工作方式(我认为)
  • 我不认为端口是主机头的一部分
bootstrap.servers=ip-10-16-34-57.ec2.internal:9092
group.id=connect-cluster
key.converter=com.qubole.streamx.ByteArrayConverter
value.converter=com.qubole.streamx.ByteArrayConverter
enable.auto.commit=true
auto.commit.interval.ms=1000
offset.flush.interval.ms=1000
key.converter.schemas.enable=true
value.converter.schemas.enable=true
internal.key.converter=org.apache.kafka.connect.json.JsonConverter
internal.value.converter=org.apache.kafka.connect.json.JsonConverter
internal.key.converter.schemas.enable=false
internal.value.converter.schemas.enable=false
offset.storage.topic=connect-offsets
rest.port=8083
config.storage.topic=connect-configs
status.storage.topic=connect-status
offset.flush.interval.ms=10000