Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/mongodb/12.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/redis/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
有没有办法把MongoDB和德鲁伊连接起来?_Mongodb_Apache Kafka_Druid - Fatal编程技术网

有没有办法把MongoDB和德鲁伊连接起来?

有没有办法把MongoDB和德鲁伊连接起来?,mongodb,apache-kafka,druid,Mongodb,Apache Kafka,Druid,我的组织有MongoDB,它存储基于应用程序的时间序列数据。现在,我们正在尝试创建一个用于分析和可视化的数据管道。由于时间序列数据,我们计划使用Druid作为中间存储,在这里我们可以进行所需的转换,然后使用Apache超集进行可视化。有没有办法将所需数据(不仅仅是更新)从MongoDB迁移到Druid 我在考虑ApacheKafka,但从我所读到的内容来看,我明白只有将主题(与表相关的主题)中发生的更改流式传输才能更好地工作,这在MongoDB和Druid中已经存在。但是,如果有一个至少有100

我的组织有MongoDB,它存储基于应用程序的时间序列数据。现在,我们正在尝试创建一个用于分析和可视化的数据管道。由于时间序列数据,我们计划使用Druid作为中间存储,在这里我们可以进行所需的转换,然后使用Apache超集进行可视化。有没有办法将所需数据(不仅仅是更新)从MongoDB迁移到Druid


我在考虑ApacheKafka,但从我所读到的内容来看,我明白只有将主题(与表相关的主题)中发生的更改流式传输才能更好地工作,这在MongoDB和Druid中已经存在。但是,如果有一个至少有100000条记录的表只存在于MongoDB中,并且首先我希望将整个表推给德鲁伊,那么卡夫卡在这种情况下会起作用吗?

您是否尝试过使用Debezium从Mongo中获取数据并将其导入卡夫卡?@cricket_007:我上周尝试过使用它,但出现了“内存空间不足”错误。我尝试了一点来解决它,但没能解决,由于时间的限制,我无法在上面花更多的时间。因此,目前我正在尝试开发一个python脚本,用于从MongoDb到Druid的数据迁移。。。编写自己的消费者是脆弱的,因为管理补偿和故障条件可能是脆弱的difficult@cricket_007同意从头开始编写消费者报告不是理想且有效的方法。我将再次尝试使用增加堆大小的Kafka。还有一个错误也是“超时”的,我也为此提出了一个问题,我想你也编辑了这个问题。默认情况下,Kafka只在本地公开其端口。您必须编辑其属性以使其接受外部连接您是否尝试过使用Debezium从Mongo获取数据并将其输入Kafka?@cricket_007:我上周尝试过使用它,但出现“内存空间不足”错误。我尝试了一点来解决它,但没能解决,由于时间的限制,我无法在上面花更多的时间。因此,目前我正在尝试开发一个python脚本,用于从MongoDb到Druid的数据迁移。。。编写自己的消费者是脆弱的,因为管理补偿和故障条件可能是脆弱的difficult@cricket_007同意从头开始编写消费者报告不是理想且有效的方法。我将再次尝试使用增加堆大小的Kafka。还有一个错误也是“超时”的,我也为此提出了一个问题,我想你也编辑了这个问题。默认情况下,Kafka只在本地公开其端口。您必须编辑其属性,使其接受外部连接