elasticsearch Elasticsearch 1.7.3:作为fielddata处理的doc_值
我是ElasticSearch的新手,开始使用ElasticSearch 1.7.3作为Logstash ElasticSearch Kibana部署的一部分 我已经为日志消息定义了一个映射模板,这是有趣的部分:elasticsearch Elasticsearch 1.7.3:作为fielddata处理的doc_值,elasticsearch,logstash,elasticsearch,Logstash,我是ElasticSearch的新手,开始使用ElasticSearch 1.7.3作为Logstash ElasticSearch Kibana部署的一部分 我已经为日志消息定义了一个映射模板,这是有趣的部分: { "template" : "logstash-*", "settings" : { "index.refresh_interval" : "5s" }, "mappings" : { "_default_" : { "_all" : {"ena
{
"template" : "logstash-*",
"settings" : { "index.refresh_interval" : "5s" },
"mappings" : {
"_default_" : {
"_all" : {"enabled" : true, "omit_norms" : true},
"dynamic_templates" : [ {
"date_fields" : {
"match" : "*",
"match_mapping_type" : "date",
"mapping" : { "type" : "date", "doc_values" : true }
}
}],
"properties" : {
"@version" : { "type" : "string", "index" : "not_analyzed" },
"@timestamp" : { "type" : "date", "format" : "dateOptionalTime" },
"message" : { "type" : "string" }
}
} ,
"my_log" : {
"_all" : { "enabled" : true, "omit_norms" : true },
"dynamic_templates" : [ {
"date_fields" : {
"match" : "*",
"match_mapping_type" : "date",
"mapping" : { "type" : "date", "doc_values" : true }
}
}],
"properties" : {
"@timestamp" : { "type" : "date", "format" : "dateOptionalTime" },
"file" : { "type" : "string" },
"message" : { "type" : "string" }
"geolocation" : { "type" : "string" },
}
}
}
}
尽管@timestamp字段被定义为doc\u value:true
但我有一个MemoryException错误,因为它是一个字段数据:
[FIELDDATA]数据太大,[@timestamp]的数据将大于
限制为[633785548/604.4 mb]
注意:
我知道我可以更改内存或向集群添加更多节点,但在我看来,这是一个设计问题,不应在内存中对该字段进行索引。你能检查一下这一点并看看它是否有用:我看到了这一点,这对我来说不是一个解决方案,因为它将超过此限制,你也尝试过了吗?关键是,默认情况下,没有limit@Val,你自己写的,默认值是60%,那么我遗漏了什么?我已经尝试过了,但没有成功,限制已经达到了哦,我很抱歉,无论出于什么原因,我已经记住了
索引.fielddata.cache.size
,默认情况下是无限制的。你可以用这个值来代替。