elasticsearch,Lucene,Apache Spark,elasticsearch" /> elasticsearch,Lucene,Apache Spark,elasticsearch" />

Lucene Elasticsearch和Spark,如何将一个字段写入文档

Lucene Elasticsearch和Spark,如何将一个字段写入文档,lucene,apache-spark,elasticsearch,Lucene,Apache Spark,elasticsearch,我正在使用Elasticsearch和Spark。我完全在rdd中创建索引,并使用rdd.saveToEs(“index”,mappings)编写它 稍后,我想通过覆盖文档中的单个字段来更新索引。但是rdd编写代码似乎需要整个文档,使用一个属性编写映射将删除文档的其余部分。例如,文档可能有标题、正文和流行度。大众性是双重的 当我重新创建人气号码时,我现在拥有: RDD[(String, Map[String, Double])] 其中单个元素将具有以下值: ("doc1", Map(("pop

我正在使用Elasticsearch和Spark。我完全在rdd中创建索引,并使用
rdd.saveToEs(“index”,mappings)
编写它

稍后,我想通过覆盖文档中的单个字段来更新索引。但是rdd编写代码似乎需要整个文档,使用一个属性编写映射将删除文档的其余部分。例如,文档可能有标题、正文和流行度。大众性是双重的

当我重新创建人气号码时,我现在拥有:

RDD[(String, Map[String, Double])]
其中单个元素将具有以下值:

("doc1", Map(("popularity" -> 1.5d)))  
如果我只写人气字段的RDD,我相信它会删除其他字段。我需要的是某种方式来执行upsert类型的op,它覆盖或添加“流行度”字段,但保持文档的其余部分不变


我已经阅读了
包含
排除
映射,但不确定它们是否适用于这种情况。当我写流行度时,我不知道文档结构的其余部分,只知道单个字段。

找到解决方案了吗?找到解决方案了吗?