我在我的web门户中使用Lucene API,它将有1000个并发用户。
我们的web服务器将调用Lucene API,它将位于应用服务器上。我们计划使用2个应用服务器进行负载平衡。
有鉴于此,我们在第二台应用服务器上复制lucene索引的策略应该是什么?请提供任何提示?您可以使用,其中包含内置复制。这可能是最好、最简单的解决方案,因为实施您自己的复制方案可能需要大量的工作
也就是说,我将亲自做这件事,为我正在进行的一个项目。不同之处在于,因为我们在前端使用PHP,所以我们在接受查询并返回db主
标签: Lucene
text-mininginformation-extractionlucene-highlighter
给定一个有限的实体术语词典,我正在寻找一种使用Lucene智能标记进行实体提取的方法。目前,我已经能够将Lucene用于:
-搜索带有模糊性的复杂短语
-突出显示结果
但是,我不知道如何:
-获取匹配短语的准确偏移量
-对每个匹配进行特定于实体的注释(而不仅仅是每次点击的标记)
我尝试过使用explain()方法,但这只给出了查询中获得命中的术语,而不是原始文本中命中的偏移量
是否有人遇到过类似的问题,并愿意分享潜在的解决方案
提前感谢您的帮助 有关偏移量,请参见以下问题:
我不太明白你的第二个
我有一个索引,我需要通过标准搜索获得所有文档,仍然按照相关性排序,即使一个文档没有成功
我的第一个想法是添加一个始终匹配的字段,但这可能会使相关性得分变形。使用布尔查询将原始查询与匹配文档查询相结合。通过将MatchAllDocsQuery上的boost设置为零,然后再将其与主查询组合,可以减轻这对评分的影响。这样,您就不必向索引中添加其他虚假字段
例如:
// Parse a query by the user.
QueryParser qp = new QueryParser(Version
我只对“欧洲”和一些相关数据进行了索引,但当有人使用“德国”一词进行搜索时,虽然没有专门针对德国的索引,但从逻辑上讲,我可以在欧洲下提供结果,而不是什么都不提供,有没有办法做到这一点?lunene是否有支持此功能的库?
但是我不想进行任何地理位置搜索,所以我们如何实现这一点呢?我想,通过使用多值字段,这将是现成的。您可以有一个包含地理信息(我们称之为“地点”)的索引字段,例如慕尼黑、巴伐利亚、德国、欧洲、世界或尼斯、法国里维埃拉、法国、欧洲、世界。然后,如果您正在巴伐利亚州寻找一些东西,只需运行
我在android应用程序中使用Lucene进行搜索,但当我运行复杂查询时,它不会返回术语的偏移量
例如:
+content:"word" +(personid:NULL personid:123)
+content:"word" +(personid:NULL)
+content:"word" -personid:123
不会为“字”返回任何偏移量
将返回偏移量
以下是我在每个字段中存储的内容
doc.add(new Field(PERSON_ID_FIELD, request.getPe
我将lucidworks enterprise配置为使用sql server数据库中的数据。
当我开始lucid抓取数据时,不幸的是没有创建索引
谢谢查看。加载数据的详细信息已给出也许您应该联系支持人员?发布您尝试过的内容。也许是代码样本什么的?
在我从仪表板对某些文档进行了一些更改后,它们没有显示为后端搜索的结果,我更新了“搜索索引”和相同的结果,因此我“重建搜索索引”。现在几分钟后,搜索索引包含几乎所有我的文档(不是全部),因此搜索与某些内容不匹配。
有人知道为什么吗?请提供帮助并感谢。转到内容类型编辑器,确保已将类型配置为索引。这是一个复选框。它已经被选中了,事实上,我可以在搜索中找到相同类型的内容类型,但有些人没有,只有当我在“内容项目”选项卡中导航时,我才能找到它们,但如果有1000多个项目,这将非常乏味。谢谢,谢谢你的回答。
标签: Lucene
elasticsearchtokenizeanalyzer
我在玩Elasticsearch中的文章编号索引
在此,我提供一个工作示例:
我不明白如果我更改“product_number.search”的值,为什么会得到不同的分数
如果我将值从“ak454”更改为“ak454”,分数将更改
我认为如果我使用搜索\ u分析器,值“ak454”将转换为“ak454”(使用可搜索\ u id映射)
您还可以查看“分析”选项卡以查看我的标记器:
谢谢。术语-query(和filter)不进行任何文本分析
match-查询可以实现您想要的功能
我改编了这个例子
我有按名称和parentname编制索引的资产,name toknized false和stored true,parentname toknized为false和stored为false
在通过REST或contributor删除其中一项资产(通过REST或contributor创建)时,即使我收到资产删除消息,它也不会总是被删除,它仍然显示在contributor搜索中,而不是在内容树中或通过Lucien搜索API,不能编辑或重新删除它们吗
在通过REST创建资产时,它们不会全部被索引,它们
我们的Lucene索引遇到一些问题。我们为我们的博客页面编制索引。我现在注意到的是,如果我对博客页面的内容进行任何更改,更新将不会显示,除非我再次重建索引
我该如何解决这个问题?我们以前没有遇到过这个问题
谢谢,我解决了这个问题。我们的站点缺少计划的任务。我重新添加了它,它每分钟都在运行,因此能够获取更新的内容。据我所知,Lucene不更新文档。一旦源数据发生更改,您必须重新构建文档。你是使用Lucene作为博客的存储空间还是从数据库源构建的?
我需要Lucene在为我的文本编制索引时保留一些标点符号,所以我现在使用的是不会删除符号的空白分析器
如果文本中有一个类似于“橙子、苹果和香蕉”的句子,我希望短语query“橙子、苹果”匹配(不能没有逗号),这很好
但是,我也希望简单的查询oranges产生一个命中,但是索引标记似乎也包含逗号(oranges,),因此除非我在查询中也写逗号,否则它不会匹配,这是不可取的
有没有什么简单的方法可以让它按我需要的方式工作
提前谢谢。我知道这是一个很老的问题,但我很无聊,我还是会回答的。我认为有两种方
我有一个问题,我的外部索引在重建时拒绝获取任何类型的数据。重建索引时,它会删除索引中的任何项。
我的内部索引工作正常,包含Umbraco中的每个节点
我认为这可能是一个错误的节点/条目,因此对整个数据库进行了备份,然后在一个隔离的环境中,我开始删除部分,希望其中一个部分可以解决这个问题
现在我已经删除了所有内容,并添加了一个新条目。我的外部索引仍然坚持为空
如何进一步排除故障
有没有什么方法可以调试ExternalIndexer,看看是什么引起了问题
有人知道问题出在哪里吗
我正在使用Umb
标签:elasticsearch Lucene
aggregate
因此,我们的Elasticsearch集群存在一个问题,通过它,我们创建了一些旧索引,其中某个字段被“分析”。现在,该字段可以包含“-”或“u”符号,我们的一个查询通过该字段聚合。
由于正在分析此字段,因此如果该字段包含这些字符中的任何操作系统,它将按其包含的每个单词进行聚合。i、 e:
“analyzedField”:“我喜欢苹果”
当我们抛出一个按其聚合的查询时,如下所示:
{
"query":{
"filtered":{
"filter":{
[...]
我使用带有采样器聚合的函数评分来匹配上次访问的文档
ES查询
{
"query": {
"function_score": {
"boost_mode": "replace", // we need to replace document score with the result of the functions,
"query": {
},
"functions": [
{
"field_
我想在ElasticSearch 2.4中使用管道聚合(Bucket选择器聚合)来嵌套字段聚合。我想做下面类似的事情,但我没有成功。您能否建议我是否可以在嵌套字段中进行管道聚合
{
"size": 0,
"aggregations": {
"totalPaidAmount": {
"nested": {
"path": "count"
},
"aggregations": {
"paidAmountTotal"
为什么hibernate搜索不支持group_by之类的聚合函数
我有一个用例,在查询中应用group by后需要获取结果。如果这是您的意思,则没有技术原因。我们可能会添加它,但对该功能的需求根本不足以使其成为我们的首要任务
如果您想查看添加到Hibernate Search的功能,可以在上创建一个记录单,详细描述您的用例和您期望的API
请注意,我不是100%确定我们会在Lucene后端实现它,因为这可能需要很多努力。但是对于在Hibernate搜索之后使用Elasticsearch的人,我们
标签:elasticsearch Lucene
hibernate-search
我需要搜索几个在elasticsearch上索引的文档。搜索工作正常,但我需要知道返回搜索的对象的类型
公共列表搜索字符串术语{
FullTextEntityManager fullTextEntityManager = Search.getFullTextEntityManager(entityManager);
QueryBuilder authorQB = fullTextEntityManager.getSearchFactory().buildQueryBuilder(
我的文档中有一个字符串
“嗨,我是堆栈溢出”
但在搜索时,我的给定字符串
“嗨,我是堆栈溢出”
我们是否有这样的搜索,如果一个字符串中有5个单词,我可以给出一个阈值,比如如果4个单词/术语匹配,那么应该用Lucene搜索该文档
我试过使用Near match,但每一个单词都是术语级的,比如nGrams、porter等等
索引字符串字符串=名称Mbar Named Insured)和邮寄地址(包括ZIP+4)
字符串tobeSearch=“第一个被保险人姓名)和邮寄地址(包括ZIP+4)”;
Qu
标签: Lucene
full-text-searchazure-cognitive-searchfull-text-indexing
我们使用认知搜索来满足搜索需求,我无法对具有特殊字符的字段进行通配符搜索
e、 例如,如果文档上的名称字段具有值-asdf,我可以使用搜索文本as*,并获取此文档
但是,如果此文档上此名称字段的值为!asdf,我无法使用通配符搜索它。我尝试使用术语进行搜索!作为*,\!作为*,和/\!作为*/。这只在我执行时有效!asdf
当字段中有特殊字符时,无法使通配符搜索工作。我使用的是查询类型full如果您查看完整Lucene模式的文档,您会发现感叹号(!)被视为特殊字符,必须用反斜杠转义
需要转义的
给出以下查询:
(field:value1 OR field:value2 OR field:value3 OR ... OR field:value50)
这可以分解成不那么冗长的东西吗?基本上,我有数百个类别ID,我需要在大量类别ID下搜索项目(每次20-50个)。在MySQL中,我只使用(value1,value2,value3)中的字段,而不是(field=value1或field=value2等等)
Solr/Lucene有更简单的方法吗?使用
field:(value1 value
我对使用Lucene和Bobo进行分面搜索的可能性很感兴趣,但有几个问题是,如果用户只搜索文本而不是数据,这些数据被分解成许多字段,每个字段都可能是分面和计数的目标,那么分面搜索对用户来说有多实际。分面是否有用取决于很多因素在您的用例上——尽管如果做得正确,它往往非常用户友好
事实上,正如您所指出的,方面的质量取决于数据的质量。如果您无法以任何方式对Lucene文档进行分类,那么faceting可能不适合您
然而,如果您能够对数据进行简单的分类,例如其源系统、创建日期、语言或大小,那么这肯定会对
我需要检索文本中与span arquery.getspan()返回的跨度匹配的单词。例如,如果我的文本是[abcdef],并且我使用带有查询“b”和“e”(以及足够的slop)的SpanarQueries,那么我在文本中得到一个匹配的“bcdde”。现在,我如何才能最有效地检索匹配中出现的单词,即单词“b c d e”本身的序列
下面是我需要的示例代码:
SpanNearQuery allNear = new SpanNearQuery(spansTermQueries, numWordsInB
如何在lucene查询中使用“where字段in(value1,value2,value3)”
我正在dotCMS中使用lucene查询。如果我正确理解您的问题,此查询将等效于:
field:value1 OR field:value2 OR field:value3
如何搜索Lucene索引以仅获取字段“patterns”包含的文档:单词“C”至少4次,单词“CN”至少4次,单词“N”至少2次
以下是我正在做的:
我正在慢慢地和Lucene打交道,但还有很长的路要走。我用它来进行化学搜索,其中一种化合物如水(H2O)被翻译成包含模式“OH OH”的“文档”,甲醇(CH3OH)被翻译成模式“CHCHCHCOOH”
(实际代码省略了氢,并使用了大小不超过7的子结构。平均文档中有几千个“单词”,其中包含许多重复。我正在研究这种方法是否有用。)
我使用类似的方法创建
我有一个程序,在其中,我必须搜索表中的给定字符串(我的SQL DB)。
搜索查询检查是否找到任何匹配的字符串。它通过搜索表中的字段来给出给定字符串的搜索分数
在这里,我没有得到或无法理解它给我的分数,因为分数不一样或不是线性的。
有没有办法限制搜索分数或使其线性化或易懂?不确定线性是什么意思,但您可以通过查看一般情况以及使用elasticsearch查看如何计算特定查询和数据的分数来更好地理解分数。不确定线性是什么意思,但是,通过查看总体情况以及使用elasticsearch查看如何计算特定
有没有办法在lucene中存储位图字段并使用位掩码操作进行搜索
对于一个对象,我有很多布尔属性,而不是每个属性都有一个单独的字段,我在考虑是否有办法将每个属性存储为位图中的一个位,并使用位掩码进行搜索
字段值可能类似于:
Attr 1 | Attr 2 | Attr 3 | Attr 4
0 1 0 1
如果我用Attr 1和Attr 3搜索文档,我会用以下内容屏蔽:
Attr 1 | Attr 2 | Attr 3 | Attr 4
1
在我目前的Lucene 4.3实现中,有数百万条索引记录,我会定期搜索()并获得topDocs.totalHits作为结果计数
作为这项工作的一部分,我将所有结果存储在会话中,然后让用户对结果进行分页。这样,我就可以显示“第一”、“上一”、“下一个”和“最后一个”导航链接以及“第1页,共500页”显示
显然,这导致了内存问题,我现在决定使用searchAfter()方法,从而避免将庞大的结果集存储在内存中
问题1:在这种情况下,如何获得总结果计数?有没有可能因为我无法得到整个结果集
问题2:我知
我正在使用Lucene 4.6.1和Highlighter 4.6.0。由于索引工作正常,我将显示我的搜索代码:
... code to get all the fields' name/values, numDocs, etc.
...
// Create Query and search
try {
TopScoreDocCollector collector = TopScoreDocCollector.create(numDocs, t
似乎没有简单的方法可以做到这一点。。。我如何确保多重匹配查询中的某些字段实际上得到了正确的提升,以便在顶部显示精确的匹配
老实说,我似乎已经尝试了很多方法,但也许有人知道答案
在我的电影和音乐数据库中,我试图一次搜索多个字段,但要确保精确匹配,使其位于顶部,并且某些字段(如标题和艺术家姓名)有更大的提升
这是我的问题的主要部分
"query": {
"bool": {
"should": [
{
"multi_match": {
我想实现一个聚类算法,并在Lucene中实现它。为此,我需要表示文档的tf-idf术语向量,这样我就可以用表示文档的相同方式表示质心,找到文档和簇之间的相似性,并通过计算其新的特征值来更新质心。但是我怎么能在Lucene的基础上做到呢
我能得到tf idf吗
我知道每个文档中的术语频率都已保存,但这是否意味着我需要“手动”计算每个术语的idf?以及如何生成向量,然后使用它们进行聚类
谢谢您可以为字段存储术语向量。然后,对于特定文档,您可以得到术语向量:
Terms termFreqVector
我需要索引文档并搜索它们。我有多个字段要查询。当我搜索索引文件时,我有重复的文档。我是这样做的:
MultiFieldQueryParser parser = new MultiFieldQueryParser( Version.LUCENE_40, new String[] {"title", "abs"}, analyzer);
Query=parser.parsequerystr
这是我的显示器:
TopScoreDocCollector collector = TopScoreDocC
我正在构建一个kibana仪表板,其中显示有关X509证书的信息。我想构建一个在其CN或SAN属性中包含通配符的证书饼图,但我找不到有效的查询语法
为了匹配像subject.cn:“*.example.net”这样的字符串,我尝试了以下kibana查询:
subject.cn:/\*./
subject.cn:/^\*./
subject.cn:\*\.
subject.cn:\*.
subject.cn:*.
有人能告诉我正确的语法吗?这是ES/Lucene支持的吗?使用标准分析仪分析*。e
我有一个Lucene索引,包含500万个条目。我用索引文档的“扭曲”片段查询这个索引。然后,我得到排名前1的文档及其分数。根据这些数据,我需要判断返回的文档是否正确。我的第一种方法是使用返回文档的id和分数训练一个随机林(这意味着,对于每个搜索的片段,我将一个训练实例插入到包含返回数据的随机林中)。然而,尽管它对某些文档非常有效,但对其他文档却表现不佳
对于每个文档,针对Lucene索引的查询都能够为某些片段找到正确的文档,但对于其他片段则无法找到正确的文档(这使得我的召回率为100%,但精确度
我定义了一个自定义分析器,我很惊讶它不是内置的
analyzer": {
"keyword_lowercase": {
"type": "custom",
"filter": [
"lowercase"
],
"tokenizer": "keyword"
}
}
那么我对该字段的映射是:
"email": {
"type": "string",
"analyzer": "ke
我想在Lucene 2.9索引上运行一个短语搜索查询,它不会返回任何结果。该查询现在被简化为一个非常基本的查询,但仍然没有帮助。我需要看哪里
我失败的搜索查询是:
bodyText: "foo bar"
类似于以下内容的查询可以工作:
bodyText: (+foo +bar)
然而,最后一个查询不符合我们的目的,因为我需要一个适当的短语搜索,并且单词是连续的
我使用Luke来测试lucene查询。可以肯定的是,在使用Luke进行查询时,您是否使用了与索引内容时相同的分析器?Luke(v1.
标签:elasticsearch Lucene
virtual-memory
假设我有一台拥有256gb内存和12TB SSD的机器。索引文档大小为100TB。我将30.5 GB分配给Elasticsearch堆。剩下的是Lucene和OS
我的问题是,Elasticsearch支持多少虚拟内存?换句话说,我可以为每台机器在虚拟内存中放入多少索引文档
谢谢可以使用的ES量由/etc/sysctl.conf中的vm.max\u map\u count设置的值定义。默认情况下,它设置为262144,但您可以使用以下方法更改此值:
sysctl -w vm.max_map_co
我正在使用syncMasterlucente索引策略(因为我需要实时数据)
我正在使用Luke-Lucene索引工具箱查看索引文档。我想问的问题是,当我重建索引我的国家索引时。我知道sitecore中有6个国家/地区项目,我为它们重建了索引。因此,通过Luke我看到了6个文档
对于ID为“{DEA26CDA-9EA9-4F67-BB3F-13CAF6A68061}”的上述项目之一,我看到该项目的每次更新都会添加一个附加文档(我看到类似内容)。因此,在索引中,我有一个包含新旧数据的项。这是否是
如果我使用包含“extrahepatisch”的查询字符串搜索,我不希望找到带有反义词“intrahepatisch”的文档
我有一个反义词对的列表。让elasticsearch使用反义词列表的最佳方法是什么?我相信您正在寻找的是使用一个。您正在使用什么样的分析器,以使它们匹配?这是德国分析器吗?我们使用模糊查询谢谢你的回答。对不起,stopwords不是我搜索的内容。我只想在搜索词中包含另一个词(“肝外词”)时排除某个词(“肝内词”)。
我有一个用例,当用户根据搜索词搜索某些搜索词时,我需要从该搜索词的总结果中对某些文档进行上排或下排
到目前为止,我所尝试的:
我已经在索引上的文档中添加了一个嵌套字段tuning,该文档将具有这些自定义增强功能
{
_id: 1234,
'name': 'Fancy potato masher',
'tuning': [
{'term': 'potato', 'rank': 5},
{'term': 'masher', 'rank': 10
在使用lucene/elasticsearch进行索引和搜索时,我希望将不同的脚本(如西里尔文、古希腊语、阿拉伯语)规范化为拉丁字母
示例(西里尔语):
如果我索引单词“apoteka”并搜索“аПаааааааааааааа107
如果我索引单词“аПаааааааааааааа
如果我索引单词“аПааааааааааааааа
如果我索引单词“apoteka”并搜索“apoteka”,那么我想找到它
如果我索引单词“apoteka”并搜索“pharmacy”,那么我不喜欢找到它(没有翻译
配置:
如何获得位置和频率
FieldType fieldType = new FieldType();
fieldType.setStored(true);
fieldType.setIndexOptions(DOCS_AND_FREQS_AND_POSITIONS_AND_OFFSETS);
fieldType.setTokenized(true);
fieldType.setStoreTermVectors(false);
我正在创建一个
我已经掌握了向lucene添加文档的基本知识,但我似乎知道当用户更改某些内容的标记时如何删除文档或更新文档。我发现页面上写着使用文档索引,我需要在生效前进行优化,但如何获得文档索引?我还看到另一个说使用IndexWriter来删除,但我也不知道如何使用它
我使用的是C#asp.net,我没有在那台机器上安装java您需要索引阅读器来删除文档,我不确定.NET版本,但是Lucene API的java和C++版本有一个索引修改器< /C> >类,它隐藏了索引器> /Cuff>和索引写
我想使用Lucene的模糊搜索,我知道它是基于某种类似Levenshtein的算法。如果我使用一个相当高的阈值(即“newyork~0.9”),它会首先计算编辑距离,然后查看它是否小于0.9对应的值,还是会在文档明显与查询不匹配时切断算法?我知道这在levenshtein算法中是可能的
如果文档显然与查询不匹配,它会切断算法吗
否。您要查看的代码是FuzzyTerminum的第57-59行:
int dist = editDistance(text, target, textlen, targe
如何使Lucene的标准分析器在“.”字符上标记化?
例如,在查询“B”时,我需要它返回“A.B.C”中的B作为结果。我需要像标准分析器那样处理数字,因此简单的分析器是不够的。
如果我可以指定标准分析器在“.”字符上标记,那就太完美了。如果我必须用这个小小的扩展来编写自己的标记器,我该怎么做呢?
谢谢
Nacha我认为最简单的方法是创建自己的分析器。它将从StandardAnalyzer获取令牌作为输入,并进一步分割点上的令牌,保持无点令牌完好无损
就如何做到这一点给出一些建议。
看起来非常相关
标签: Lucene
lucene.netstemmingsnowballanalyzer
我正在asp.net应用程序中使用lucene.net和snowball analyzer
对于我使用的特定语言,我有以下问题:
对于词干后具有不同含义的两个特定单词,结果是相同的,因此对其中任何一个单词的搜索都将产生这两个单词的结果
我如何教分析器不要对这两个词进行词干分析,或者尽管对它们进行词干分析,但要知道它们有不同的含义。我在这里是根据记忆工作的,但正如我在其中一个构造函数中回忆的那样,您可以传递一个stopwords数组,这将阻止传入的词进行词干分析。使用Lucene 4.0,英格兰人
我在ES中有一个索引,除了其他字段外,还有收入金额和收入货币字段。收入以不同的货币存储。在运行时,所有货币都转换为美元并呈现
现在,我想支持对revenue_amount字段进行排序。问题是ES在转换为美元之前根据收入对结果进行排序,因此顶部返回的收入可能不是转换为美元之后的最高收入
我想知道,在排序之前,ES是否可能调用用户定义的函数来更改字段值,然后应用排序?大概是这样的:
{
"query": {
"function_score": {
"query": {
我有一个已分析的字段hostname和一个未分析的字段hostname.raw
我试图查询一些字段值中有点的主机,如
AP.MO.HALL-01
AP.MO.2楼-01
当我尝试查询主机名:AP.MO.*时,它还返回值为AP.MOOCA.HALL的主机
当我尝试使用未分析的字段进行查询时,根本没有得到任何结果:hostname.raw:AP.MO.*
如何使Kibana尊重通配符之前的点?我能够通过使用正则表达式查询并转义主机名中的句点来解决类似问题
看看您的示例,类似于以下内容的内容应该可以工
由于不太熟悉nosql数据库,我目前想知道以下几点:
我有一个lucene搜索索引,可以搜索整个数据库,并且:
function (doc) {
index("default", doc.name);
index("name", doc.name, {"store": true, "index": false});
if (doc.description) {
index("default", doc.description);
index("description"
我正在使用lucene语法在datadog日志资源管理器的日志文件中搜索字符$。它和kibana很相似。我记录了一个字符串,用于测试测试$pattern datadog,但当我搜索$时,它不会显示任何结果。搜索Testing时,我得到Testing$pattern datadog的响应。请告诉我如何列出发生的$非常感谢您的帮助 一种解决方案是在logs>configuration>pipelinesa中设置一个新属性,使其可以进行搜索
编辑:2019年11月19日
步骤1:
添加grok解析
我有一个以elasticsearch为后端商店的微服务。现在我有了多个索引,在这些索引中插入了数十万个文档
现在我需要为这些索引公开GETAPI获取/员工/获取。
我已经用滚动和搜索完成了ES分页。但它们都需要滚动id和(键)后搜索等元信息来进行分页
现在的问题是我的微服务不应该公开这些滚动ID或搜索。按照目前的方法,我最多可以列出10万份文档,但不能超过10万份。我不想让microservice的用户知道后端商店或任何有关它的信息。那么如何在elasticservice中实现这一点呢
我的想法
上一页 1 2 ...
44 45 46 47 48 49 50 ...
下一页 最后一页 共 78 页