Curl 如何在XDB中设置批大小
我想通过使用curl util向XDB插入500000多个点。 所以我想设置“批量大小”以在curl中获得更好的性能,但我找不到任何关于批量大小的选项 我已经阅读了XDB标准手册中的“编写Syntex”一节——“使用curl编写一批点” 我认为points.txt文件的行数在Curl 如何在XDB中设置批大小,curl,influxdb,Curl,Influxdb,我想通过使用curl util向XDB插入500000多个点。 所以我想设置“批量大小”以在curl中获得更好的性能,但我找不到任何关于批量大小的选项 我已经阅读了XDB标准手册中的“编写Syntex”一节——“使用curl编写一批点” 我认为points.txt文件的行数在curl-xpost'http://localhost:8086/write'--data urlencode'db=mydb&rp=myrp&u=root&p=root'--data binary@points.txt是批
curl-xpost'http://localhost:8086/write'--data urlencode'db=mydb&rp=myrp&u=root&p=root'--data binary@points.txt
是批量大小,但我不确定
所以我尝试将insert_文件分离为5000行文件,并将每个文件插入influxdb,但我发现influxdb效率不高
谁能告诉我真相吗?XDB中没有批量大小设置。通过
curl
提交的文件中的所有点均视为一批。为了获得最佳吞吐量,批处理应该在5k点左右,尽管在高功率服务器上或数据非常规则的情况下,更大的批处理大小可能更有效
我想向XDB插入超过500000个点
这太大了,不能一批发送,所以您需要将其拆分成块
我认为points.txt文件在curl-X POST'--data urlencode'db=mydb&rp=myrp&u=root&p=root'--data binary@points.txt中的行数是批量大小,但我不确定
是的,cat points.txt | wc-l
将为您提供文件中的点数
所以我尝试将insert_文件分离为5000行文件,并将每个文件插入influxdb,但我发现influxdb效率不高
没有办法知道你觉得什么效率不高,所以我无法对此做出回应。在一台合理的服务器上,5k批次中的500k点数可能需要5-60秒 您使用的机器的规格是什么?您正在运行哪个版本的XDB?