Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/kubernetes/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
<img src="//i.stack.imgur.com/RUiNP.png" height="16" width="18" alt="" class="sponsor tag img">elasticsearch Kubernetes原木在kibana分裂_<img Src="//i.stack.imgur.com/RUiNP.png" Height="16" Width="18" Alt="" Class="sponsor Tag Img">elasticsearch_Kubernetes_Kibana - Fatal编程技术网 elasticsearch Kubernetes原木在kibana分裂,elasticsearch,kubernetes,kibana,elasticsearch,Kubernetes,Kibana" /> elasticsearch Kubernetes原木在kibana分裂,elasticsearch,kubernetes,kibana,elasticsearch,Kubernetes,Kibana" />

elasticsearch Kubernetes原木在kibana分裂

elasticsearch Kubernetes原木在kibana分裂,elasticsearch,kubernetes,kibana,elasticsearch,Kubernetes,Kibana,我在Azure中安装了Kubernetes系统,并使用以下说明安装了fluent、elasticsearch和kibana:我可以在kibana中看到我的pods日志,但当我发送的日志超过16k个字符时,它就分裂了 如果我寄3.5万美元。它被分成3段 如何增加1个日志的限制?我希望能够在一个日志中看到36k字符 作业是否合并到一个日志中。 求解docker的最大日志行(16Kb) 解决我的容器日志中的长行被拆分为多行的问题 “解决”邮件的最大大小似乎是16KB,因此对于85KB的邮件,结果是在

我在Azure中安装了Kubernetes系统,并使用以下说明安装了fluent、elasticsearch和kibana:我可以在kibana中看到我的pods日志,但当我发送的日志超过16k个字符时,它就分裂了

如果我寄3.5万美元。它被分成3段

如何增加1个日志的限制?我希望能够在一个日志中看到36k字符

作业是否合并到一个日志中。 求解docker的最大日志行(16Kb) 解决我的容器日志中的长行被拆分为多行的问题 “解决”邮件的最大大小似乎是16KB,因此对于85KB的邮件,结果是在不同的块中创建了6条邮件。

我半年前就在这里了。简言之,这是一种预期行为

Docker以16K的速度对日志消息进行分块,因为日志消息有16K的缓冲区。如果消息长度超过16K,则json文件记录器应将其拆分,并在端点处合并


看起来Fluentbit选项可能会有所帮助,但我不确定您到底是如何解析容器日志的。

如果您将36K chars日志直接发送到kibana,会发生什么?它完整地到达了吗?看起来像这样吗?@Nick是的,就像这样!