elasticsearch Kubernetes原木在kibana分裂
我在Azure中安装了Kubernetes系统,并使用以下说明安装了fluent、elasticsearch和kibana:我可以在kibana中看到我的pods日志,但当我发送的日志超过16k个字符时,它就分裂了 如果我寄3.5万美元。它被分成3段 如何增加1个日志的限制?我希望能够在一个日志中看到36k字符 作业是否合并到一个日志中。 求解docker的最大日志行(16Kb) 解决我的容器日志中的长行被拆分为多行的问题 “解决”邮件的最大大小似乎是16KB,因此对于85KB的邮件,结果是在不同的块中创建了6条邮件。我半年前就在这里了。简言之,这是一种预期行为 Docker以16K的速度对日志消息进行分块,因为日志消息有16K的缓冲区。如果消息长度超过16K,则json文件记录器应将其拆分,并在端点处合并
elasticsearch Kubernetes原木在kibana分裂,
elasticsearch,kubernetes,kibana,
elasticsearch,Kubernetes,Kibana,我在Azure中安装了Kubernetes系统,并使用以下说明安装了fluent、elasticsearch和kibana:我可以在kibana中看到我的pods日志,但当我发送的日志超过16k个字符时,它就分裂了 如果我寄3.5万美元。它被分成3段 如何增加1个日志的限制?我希望能够在一个日志中看到36k字符 作业是否合并到一个日志中。 求解docker的最大日志行(16Kb) 解决我的容器日志中的长行被拆分为多行的问题 “解决”邮件的最大大小似乎是16KB,因此对于85KB的邮件,结果是在
看起来Fluentbit选项可能会有所帮助,但我不确定您到底是如何解析容器日志的。如果您将36K chars日志直接发送到kibana,会发生什么?它完整地到达了吗?看起来像这样吗?@Nick是的,就像这样!