elasticsearch,logstash,Csv,elasticsearch,Logstash" /> elasticsearch,logstash,Csv,elasticsearch,Logstash" />

通过Logstash将CSV文件导入Elasticsearch时的性能问题

通过Logstash将CSV文件导入Elasticsearch时的性能问题,csv,elasticsearch,logstash,Csv,elasticsearch,Logstash,我正在尝试导入一些千兆字节的CSV文件(大约1000多万行,5列),但吞吐量非常低(~1MB/s)。我还不太确定问题可能是什么,但也许这里有人有一些线索 使用默认的安全洋葱堆栈(评估模式),8GB、i7(octocore)、SSD盒上的吞吐量是多少?使用CSV过滤器导入CSV文件是否存在已知吞吐量问题?同样,对于使用日期过滤器(从CSV中提取时间戳值)?我认为您可能会更幸运地问这个关于谢谢您的问题!行。

我正在尝试导入一些千兆字节的CSV文件(大约1000多万行,5列),但吞吐量非常低(~1MB/s)。我还不太确定问题可能是什么,但也许这里有人有一些线索


使用默认的安全洋葱堆栈(评估模式),8GB、i7(octocore)、SSD盒上的吞吐量是多少?使用CSV过滤器导入CSV文件是否存在已知吞吐量问题?同样,对于使用日期过滤器(从CSV中提取时间戳值)?

我认为您可能会更幸运地问这个关于谢谢您的问题!行。