C++ 在C+中将序列化的Thrift结构序列化为Kafka+;
我在C++ 在C+中将序列化的Thrift结构序列化为Kafka+;,c++,serialization,apache-kafka,thrift,C++,Serialization,Apache Kafka,Thrift,我在节俭中定义了一组结构,如下所示: struct Foo { 1: i32 a, 2: i64 b } 我需要在C++中执行以下操作: (a) 将Foo的实例序列化为与节约兼容的字节(使用Binary或Compact节约协议) (b) 将字节序列化实例发送到Kafka主题 问题 如何将Thrift序列化实例发送到Kafka集群 提前谢谢找到了我自己问题的答案 系列化 下面的代码片段说明了如何将Foo的实例序列化为与Thrift兼容的字节(使用ThriftCompact协议)。要使用二
节俭
中定义了一组结构
,如下所示:
struct Foo {
1: i32 a,
2: i64 b
}
我需要在C++
中执行以下操作:
(a) 将Foo
的实例序列化为与节约兼容的字节(使用Binary
或Compact
节约协议)
(b) 将字节序列化实例发送到Kafka
主题
问题
如何将Thrift
序列化实例发送到Kafka
集群
提前谢谢找到了我自己问题的答案 系列化 下面的代码片段说明了如何将
Foo
的实例序列化为与Thrift
兼容的字节(使用ThriftCompact
协议)。要使用二进制
协议,请将t比较协议
替换为t二进制协议
#include <thrift/transport/TBufferTransports.h>
#include <thrift/protocol/TCompactProtocol.h>
using apache::thrift::protocol::TCompactProtocol;
using apache::thrift::transport::TMemoryBuffer;
...
...
boost::shared_ptr<TMemoryBuffer> buffer(new TMemoryBuffer());
boost::shared_ptr<TCompactProtocol> protocol(new TCompactProtocol(buffer));
uint8_t **serialized_bytes = reinterpret_cast<uint8_t **>(malloc(sizeof(uint8_t *)));
uint32_t num_bytes = 0;
// 'foo' is an instance of Foo
foo->write(protocol.get());
buffer->getBuffer(serialized_bytes, &num_bytes);
#包括
#包括
使用apache::thrift::protocol::TCompactProtocol;
使用apache::thrift::transport::TMemoryBuffer;
...
...
boost::shared_ptr buffer(新的TMemoryBuffer());
boost::共享ptr协议(新的TCompactProtocol(buffer));
uint8\u t**serialized\u bytes=reinterpret\u cast(malloc(sizeof(uint8\u t*));
uint32\u t num\u bytes=0;
//“foo”是foo的一个实例
foo->write(protocol.get());
buffer->getBuffer(序列化字节和num字节);
发送到卡夫卡集群
下面的代码片段演示了如何将与Thrift兼容的字节发送到Kafka集群
注意:下面使用的卡夫卡客户端库是
#包括“rdkafkacpp.h”
std::字符串errstr;
//创建全局配置
RdKafka::Conf*Conf=RdKafka::Conf::create(RdKafka::Conf::Conf_GLOBAL);
conf->set(“metadata.broker.list”,“localhost:9092”,errstr);
conf->set(“api.version.request”,“true”,errstr);
//创建卡夫卡制作人
RdKafka::Producer*Producer=RdKafka::Producer::create(conf,errstr);
//创建特定于主题的配置
RdKafka::Topic*Topic=RdKafka::Topic::create(制作人,“主题名称”,nullptr,errstr);
自动分区=1;
//将序列化字节发送到Kafka群集
自动恢复=生产商->生产商(
话题,划分,,
RdKafka::Producer::RK_MSG_COPY/*复制有效负载*/,,
序列化的_字节,num_字节,
空,空);
如果(res!=RdKafka::ERR\u NO\u ERROR){
标准::cerr可能重复的
#include "rdkafkacpp.h"
std::string errstr;
// Create global configuration
RdKafka::Conf *conf = RdKafka::Conf::create(RdKafka::Conf::CONF_GLOBAL);
conf->set("metadata.broker.list", "localhost:9092", errstr);
conf->set("api.version.request", "true", errstr);
// Create kafka producer
RdKafka::Producer *producer = RdKafka::Producer::create(conf, errstr);
// Create topic-specific configuration
RdKafka::Topic *topic = RdKafka::Topic::create(producer, "topic_name", nullptr, errstr);
auto partition = 1;
// Sending the serialized bytes to Kafka cluster
auto res = producer->produce(
topic, partition,
RdKafka::Producer::RK_MSG_COPY /* Copy payload */,
serialized_bytes, num_bytes,
NULL, NULL);
if (res != RdKafka::ERR_NO_ERROR) {
std::cerr << "Failed to publish message" << RdKafka::err2str(res) << std::endl;
} else {
std::cout << "Published message of " << num_bytes << " bytes" << std::endl;
}
producer->flush(10000);