elasticsearch Elasticsearch 1.7.3:作为fielddata处理的doc_值,elasticsearch,logstash,elasticsearch,Logstash" /> elasticsearch Elasticsearch 1.7.3:作为fielddata处理的doc_值,elasticsearch,logstash,elasticsearch,Logstash" />

elasticsearch Elasticsearch 1.7.3:作为fielddata处理的doc_值

elasticsearch Elasticsearch 1.7.3:作为fielddata处理的doc_值,elasticsearch,logstash,elasticsearch,Logstash,我是ElasticSearch的新手,开始使用ElasticSearch 1.7.3作为Logstash ElasticSearch Kibana部署的一部分 我已经为日志消息定义了一个映射模板,这是有趣的部分: { "template" : "logstash-*", "settings" : { "index.refresh_interval" : "5s" }, "mappings" : { "_default_" : { "_all" : {"ena

我是ElasticSearch的新手,开始使用ElasticSearch 1.7.3作为Logstash ElasticSearch Kibana部署的一部分

我已经为日志消息定义了一个映射模板,这是有趣的部分:

{   
  "template" : "logstash-*",
  "settings" : { "index.refresh_interval" : "5s" },
  "mappings" : {
    "_default_" : {
      "_all" : {"enabled" : true, "omit_norms" : true},
      "dynamic_templates" : [ {
        "date_fields" : {
          "match" : "*",
          "match_mapping_type" : "date",
          "mapping" : { "type" : "date", "doc_values" : true }
        }
      }],
      "properties" : {
        "@version" : { "type" : "string", "index" : "not_analyzed" },
        "@timestamp" : { "type" : "date", "format" : "dateOptionalTime" },
        "message" : { "type" : "string" }
      }
    } , 
    "my_log" : {
      "_all" : { "enabled" : true, "omit_norms" : true },
      "dynamic_templates" : [ {
        "date_fields" : {
          "match" : "*",
          "match_mapping_type" : "date",
          "mapping" : { "type" : "date", "doc_values" : true }
        }
      }],
      "properties" : {
        "@timestamp" : { "type" : "date", "format" : "dateOptionalTime" },
        "file" : { "type" : "string" },
        "message" : { "type" : "string" }
        "geolocation" : { "type" : "string" },
      }
    }
  }
}
尽管@timestamp字段被定义为
doc\u value:true
但我有一个MemoryException错误,因为它是一个字段数据:

[FIELDDATA]数据太大,[@timestamp]的数据将大于 限制为[633785548/604.4 mb]

注意:


我知道我可以更改内存或向集群添加更多节点,但在我看来,这是一个设计问题,不应在内存中对该字段进行索引。

你能检查一下这一点并看看它是否有用:我看到了这一点,这对我来说不是一个解决方案,因为它将超过此限制,你也尝试过了吗?关键是,默认情况下,没有limit@Val,你自己写的,默认值是60%,那么我遗漏了什么?我已经尝试过了,但没有成功,限制已经达到了哦,我很抱歉,无论出于什么原因,我已经记住了
索引.fielddata.cache.size
,默认情况下是无限制的。你可以用这个值来代替。