我正试图通过这个链接从mysql导入数据
我得到以下错误
HTTP ERROR: 500 - Severe errors in solr configuration. Check your log files for more detailed information on what may be wrong.
If you want solr to continue after configuration errors, change: <abortOnConfigurationErr
我正在看电视。我不知道如何搜索“和”。我试过“一个后面有and和单词的句子”我试过+和\和。它总是忽略它。如何搜索“和”?我正在使用lucene.net您是否在索引中包含“and”以便其可搜索
如果您使用StandardAnalyzer为文档编制索引,则默认的停止词列表中包含“和”。如果您想在索引中包含单词“and”,可以将自己的停止词列表作为字符串数组传递给StandardAnalyzer的构造函数。您是否尝试过所有大写字母中的和
如果你想做一个和搜索,你有几个选择。你能行
+foo +bar
我们所有人最近都遇到过没有SQL解决方案的炒作。MongoDB、CouchDB、BigTable、Cassandra和其他已被列为无SQL选项。下面是一个例子:
然而,三年前,我和一位同事使用Lucene.NET,似乎符合无SQL的描述。我们不只是使用它进行用户输入的搜索查询;我们使用它使一些重新编制索引的RDBMS表数据非常高效。我们实现了自己的.NET服务,类似于Solr服务,以管理这些索引并使其可调用。当我离开公司时,团队转而使用Solr。(对于那些不知道的人来说,Solr是一个web服
我需要将我的Solr索引复制到另一个项目的PosgreSQL中。有没有一种简单的方法可以将索引转储到纯文本文件(类似于pg_dump)或遍历每个主键,以便我可以逐个下载它们?Solr支持。但请注意,只能返回
我们正在运行Solr安装(一切都是标准的jetty环境,只是在模式中添加了一些字段)
索引大约有80k个平均大小的文档(可能有20个字段,每个字段大约有100个字符)
问题是,有时一些请求会超时。它们不会在服务器端超时,但会花费超过10秒的时间,我们的应用程序会将其视为超时。它们是非常简单的查询,通常不会花费超过80毫秒的时间
它似乎与重建索引相关(我们正在从数据库收集信息,并在200个文档中不断更新索引)。我的意思是,如果没有文档可以更新,索引工作就会被发送到睡眠状态。我估计每15-20分钟就
有没有人有幸为nutch编写自定义索引器,用elasticsearch为爬网结果编制索引?或者您知道已经存在的任何问题吗?还没有完成,但这肯定是可行的,但需要借助SOLR代码(src/java/org/apache/nutch/indexer/SOLR)并使其适应ElasticSearch。顺便说一句,我知道Nutch将添加可插拔的后端,很高兴看到它。我需要将elasticsearch与Nutch 1.3集成。代码张贴在这里。利用(src/java/org/apache/nutch/indexe
我们的网站正在使用Lucene2.1对产品信息进行索引和搜索,如产品名称、描述等。有一个排序条件,具有折扣价格的产品应位于结果页面的顶部
一个新的要求:如果关键字与产品名称匹配,我们应该将此产品放在结果页面的顶部,即使它没有折扣价格。
如何做到这一点,我可以得到排序过程中的一个字段的分数吗
example:
product1(name: aaa, description: ddd bbb, discount:null)
product2(name: bbb, description: ddd b
有人能解释一下为什么原始查询(以编程方式生成)中的OR(左起第二个)在解析的查询中成为必须的吗?我如何防止这种情况
Original Query: +matchAllDocs:true +( request_id:(00000000000000000000000000002796 OR 00000000000000000000000000002829) OR ( matchAllDocs:true AND ( request_id:(0000000000000000000000000000279
(my)CLucene版本为2.3.3
(客户端)Lucene文件索引格式为2.9.1
此时出现一个错误:
IndexReader* reader = IndexReader::open(index);
错误:
告诉我如何避开Lucene当前的错误、不兼容的版本
卢克…?在这一点上?哪一个?IndexReader*reader=IndexReader::open(索引);如果你需要,我可以给你所有的源代码
Lucene 4.4有没有办法准确地确定哪些术语满足查询?我只需要强调导致文档返回的术语,而不是文档中其他地方的相同术语。例如,给定文档:
We are going to visit the White House today. I hear it is painted white.
还有短语query“whitehouse”,我想强调以下术语:
We are going to visit the <b>White</b> <b>House</b>
标签: Lucene
hibernate-searchluke
当我将hibernate搜索的目录提供程序配置为ram时,如何使用Luke访问Lucene索引
我不知道为路径输入什么:
那是不可能的。Lucene RAM索引不能与Luke一起检查。您需要一个基于文件系统的索引。RAM索引仅在创建它的JVM中可见,并且在重新启动时丢失。它的主要用途是在开发和测试期间,或者在仅暂时需要索引的应用程序中
我可以在集群上创建一个ElasticSearch索引吗,让我们把它命名为“集群1”
然后假设有另一个集群“集群2”,我希望节点将来移动到其中。将来是否可以只更改集群名称而不影响数据?当然,如果碎片移动到集群中的其他节点也可以,但我只是不希望任何数据丢失。是的,我相信您可以在配置中更改es进程(节点)的集群名称,并且数据碎片仍将存在于新集群中 是的,Cluster 2可以从Cluster 1节点获取索引,但您必须确保:
将ESHOME/data/Cluster 1节点上的数据目录从ESHOME/d
我正在尝试将Sitecore电子商务服务(SES)与现有产品(作为Sitecore项目提供)集成到现有站点中
当我尝试检索以下产品时:
IPProductRepository productRepository=Sitecore.Ecommerce.Context.Entity.Resolve();
var builder=new CatalogQueryBuilder();
var productTemplateId=“{C7B33629-A35B-4EF8-8FE7-9343ACAA6FBE
我想构建一个ElasticSearch查询,其中我查询多个字段,但查询中的一个单词必须与其中一个字段匹配
例如,假设我查询“holiday party food”,我希望它返回所有在标题中至少有一个术语的文档,其余的在html_源中
如果文件具有:
title: Holiday, html_source: party food => MATCH
title: Party, html_source: food holiday => MATCH
title: Food, html_sou
我正在使用lucene 4.0,现在我想分析使用StringField的字段。。谁能告诉我有什么方法可以分析字符串
Document d = new Document();
d.add(new StringField("id_c", rs.getString("id_c"), Field.Store.YES, Field.Index.ANALYZED));
d.add(new StringField("id_c", Field.Store.YES, Field.Index.ANALYZED
我使用StandardAnalyzer为我的文本编制索引。然而,在查询时,我正在进行术语查询和短语查询。对于术语查询和短语查询,我相信lucene在计算术语频率和短语频率方面没有问题。然而,这对于类似Dirichlet相似性的模型来说是很好的。对于BM25相似性或TFIDF相似性模型,它需要IDF(术语)和IDF(短语)。lucene如何处理这个问题 将TFIDF计算为其组成项的IDF之和。也就是说:idf(“ab-cd”)=idf(ab)+idf(cd)
然后将该值乘以短语频率,并将其视为一个
标签:elasticsearch Lucene
wildcard
我使用通配符为文档编制了索引:
例如:
_source: {
"keyword": "*ower"
}
现在我想用完整术语搜索并找到匹配项:
例如:
"match": {
"keyword": "tower"
}
应与初始文档匹配。
我怎样才能用Elasticsearch做到这一点?我需要专门的分析仪吗
请注意,它与通配符查询完全相同,但工作方式相反(通配符在文档中,而不是在搜索词中)。为什么要这样做,为什么不为普通词编制索引,然后在搜索时使用通配符?假设我想将一组有效词(包括wu
标签: Lucene
classcastexceptionhibernate-searchjava-ee-7glassfish-4
我尝试使用Hibernate搜索添加全文搜索功能,但当我尝试在glashfish应用服务器上部署ear项目时,我得到了Lucene40PostingsFormat classCastException
这是完整的服务器日志:
Información: HHH000412: Hibernate Core {[WORKING]}
Información: HHH000206: hibernate.properties not found
Información: HHH000021: B
标签: Lucene
hibernate-searchhibernate-envers
我使用了Spring3.2.6.RELEASE和Hibernate4.3.0.Final,以便用@Indexed对实体进行索引,结果很好。但当我向pom.xml添加任何Envers版本并添加@Audited时,它会抛出异常
classNotFoundException: org.hibernate.boot.registry.classloading.spi.ClassLoaderService
我试过很多不同的版本。Envers、Lucene索引搜索的正确版本是什么
Caused by: j
我是ES的新手,我一直在研究ES的评分,试图提高搜索结果的质量。我遇到过这样一种情况,即queryNorm函数在碎片之间非常不同(5倍大)。我可以看到查询中的术语对idf的依赖关系,在碎片之间可能有所不同。但是,在我的例子中,我有一个搜索词+碎片间的idf度量值彼此接近(绝对不足以导致X 5倍的差异)。我将简要描述我的设置,包括我的查询和解释端点的结果
设置
我有一个包含6500个文档的索引,这些文档分布在5个碎片上。我提到,在下面的查询中显示的字段上没有索引时间提升。我提到我的设置使用带有“q
我通过Kentico使用Lucene.net。我试图提高在某个领域具有特定价值的结果。例如:
myfield:“myvalue”^2
不幸的是,这被视为一个搜索词,并改变了分数(通过tf和idf等)
有没有一种方法可以基于某个值的存在来提升结果,但不将该值作为搜索项包括在内
更新
所以我只想提高那个字段中包含该值的记录的分数,而不是任何形式的搜索值
如果做不到这一点,因为我实际上使用了两个索引,我可以对一个特定的索引应用提升吗?例如,索引-1中的项目总体得分略高于索引-2中的项目得分。如果您在“
我正在寻找创建Kibana watcher的指针,在这里我想查看我的日志,如果在任何30分钟内我在日志中看到文本“安全警报”超过10次,我想发送警报
我指的是这篇文章
文档中不清楚如何1>通读、过滤和解析字符串2>如何设置相同的计数 对于此要求,您应该使用高级观察程序,而不是更简单(且功能较弱)的阈值观察程序。在Kibana Watcher UI中,您可以在这两种类型中进行选择
看
作为介绍和
高级观察者的语法和总体行为
因此,根据您在问题中描述的需求,以下是您将如何实现watcher(简而言
我正在做一个小项目,我现在面临一个问题
我正在使用:
格拉法纳7.1.5
基巴纳7.9.0
Elasticsearch 7.9.0
我的问题是我有一个grafana仪表板,其中有数据源elastic collectd。在查询中,我有一个度量,其中我得到了主机的平均rx(确实显示了一个图表),我有一个从我的平均rx派生的度量。但在我的导数度量中,它没有显示任何图形
我的问题是:
request:Object
url:"api/datasources/proxy/8/_msearch?
我需要对我的项目中的搜索问题功能进行词干分析。
我使用ApacheLucene版本8.6.2。
由于snowball analyzer已被弃用,如何使用ApacheLucene对英语语言进行词干分析。
我的功能是,我的数据库中有一组问题,用户可以使用任意组合的单词进行搜索以获得问答。
如何实现这一目标
我正在研究在RDBMS支持的web应用程序中使用和/或提供搜索。不幸的是,我浏览的所有文档都涉及如何从索引中获取数据;我更关心的是如何建立一个有用的索引。有什么“最佳实践”可以做到这一点吗?作为介绍:
布莱恩·麦卡利斯特写了一篇很好的博文: 是否将多个应用程序写入数据库?如果是这样,就有点棘手了;你必须有一些机制来识别新的记录,以提供给Lucene索引器
另一个要考虑的问题是,是否需要一个覆盖所有表的索引,或者每个表的一个索引。通常,我建议使用一个索引,该索引中有一个字段来指示记录来自哪个表
如
代码详细信息:
当我执行这一行时,我得到一个空白的搜索查询
queryField = multiFieldQueryParser.Parse(inpKeywords);
keywordsQuery.Add(queryField, BooleanClause.Occur.SHOULD);
这是我的自定义分析器:
public class CustomAnalyzer : Analyzer
{
private static readonly WhitespaceAnaly
我正在尝试搜索范围内的结果,例如a到C。但是,结果中包含范围内的字母,但我只希望结果以范围内的字母开头 最简单的方法——在索引期间,创建另一个仅包含第一个字母的字段。因此,如果该字段当前包含:
Alpha
Beta
Charlie
然后在单独的字段中对此进行索引(未分析):
然后像往常一样使用范围查询
myFieldFirstLetter:[A TO C]
我最终使用了Solr1.4可用的QParser插件提供的frange
{!frange l=A u=C}fieldname
我是从中获
是否有一种方法可以根据某种规则从单个索引文件生成单独的索引文件,而无需重新为文档编制索引
原始索引不包含任何存储字段,这意味着我无法读取文档并将其添加到目标索引
SO中提到的一个选项是将索引克隆为多个,然后删除不属于该索引的文档。我在寻找更好的解决办法
SO中提到的一个选项是将索引克隆为多个,然后删除不属于该索引的文档。我在寻找更好的解决办法
这个解决方案有什么问题?我觉得这是一个非常干净的解决方案,只需要几行代码
更新:
如果您有一个100G索引,希望拆分500次,请尝试以下方法:对于要从索引
我有一个问题,是否可以在solr/lucene中使用通配符执行短语搜索,就好像我有两个查询都有完全相同的结果一样。
一是:
另一个是:
+Contents:"change* market"
我假设第二个应该匹配“changes market”,但它不会返回任何匹配项。我不可能搜索带有in-phrase的通配符。
您可能需要考虑使用接近搜索的两个查询。(q=change *行情和qs=1)
在我看来,无法搜索带有in短语的通配符。
您可能需要考虑使用接近搜索的两个查询。(q=change *行情
现在我们使用deltaImport将数据从db更新到索引。
但我们有一些信息需要实时搜索或近实时搜索。
如果我使用solr来解决这个问题,我该怎么办?这篇文章可能对你有用:这篇文章可能对你有用:要生成近实时搜索,我会每分钟更新小数据包中的数据并更新小数据包中的索引(索引更新只需要几秒钟——取决于新数据的大小)
不要忘记定期优化索引以生成近乎实时的搜索。我将更新小数据包中的数据,并每分钟更新小数据包中的索引(索引更新只需要几秒钟-取决于新数据的大小)
别忘了定期优化索引你应该看看Solr 3.3和
我在为Lucene编制索引时遇到了某些PDF问题(System.NullreferenceExceptions)
我发现有一个新版本(1.5.0)可用,我们目前使用的是0.7.3,但是如何获得.net的.dll
提前谢谢
Dirk您可以按照所述自己构建.NET版本的PDFBox
或者您可以获取非官方二进制文件:
我需要从发布列表中删除条目。如何在Lucene 4.0中实现这一点?我需要这样做来测试不同的剪枝算法
提前谢谢
ZP您可以在这里找到一个很好的修剪模块:
ZP
我在网站上也问了以下问题,但到目前为止我在那里没有运气
我有一个任务,我需要手动添加媒体图像文件的数据库记录,该文件将出现在我们客户的Umbraco站点中
我的SQL包括:
在图像的umbracode中添加记录
在cmsContent中添加记录
在cmsContentXml中添加记录
将图像的umbraco文件、umbraco宽度、umbraco高度、umbraco字节、umbraco扩展名的记录添加到cmsPropertyData
在执行上述操作并登录到Umbraco后,我可以在媒体区域中
我正在使用ConstantScoreRangeQuery搜索范围为0.0.0到255.255.255的所有IP地址。这几乎是在搜索所有IPv4地址
我正在将我的所有IP地址转换为字符串并为它们编制索引。例如,0.0.0.0变为00000000,255.255.255变为ffffff,其中每两个字符为一个八位字节
当我搜索IP地址时,我创建了一个查询,如下所示:
ConstantScoreRangeQuery(fldIdStr,“00000000”,“ffffffff”,true,true)
我同
我有一个重复的条件(过滤掉用户无权访问的实体),用于几个hibernate搜索查询
目前,该条件由函数生成,并在需要时手动注入到所有查询中
我很想把它变成一个hibernate搜索查询过滤器
我想知道会对性能产生什么影响。也就是说,使用过滤器是否比运行特别查询慢(远)
将会有很多用户,很多读取,而不是那么多写入。Hibernate搜索中的过滤器方法非常快速,并且基于Lucene过滤器。限制每个用户的结果似乎非常适合过滤器。通常情况下,过滤器的性能应该优于查询,尤其是在使用缓存过滤器的情况下。我肯
我正在使用Lucene实现单词搜索。
我想为每个文档添加两个字段:一个标题字段,包含文档中的前100个字符;一个内容字段,包含文档中的其余字符
ContentHandler handler = new BodyContentHandler();
try {
parser.parse(is, handler, metadata);
} finally {
is.close();
}
Document doc = new Docum
标签: Lucene
ibm-connectionsibm-sbt
我知道有一个简短的讨论,但我想指出一个具体的用例。也许还有其他方法可以实现这一点,或者IBM可以考虑使用该用例,并评估这是否可以作为即将发布的IBM Connections功能的良好补充:
知道Connections搜索引擎基本上是一个配置良好的lucene,有一些种子列表代理可以抓取配置文件、Wiki等,这让我觉得这样做不会太难:
用例:
1.)有一个应用程序将其更新作为条目/事件(而不是状态更新)发布到用户的ActivityStream。
2.)有一些OpenSocial小工具可以为这些条目
有没有办法通过直接提供术语和术语频率,而不是通过分析和/或令牌流,将文档添加到索引中?我这样问是因为我想对一些数据建模,我知道术语频率,但没有需要分析的底层文本文档。我可以通过多次重复相同的术语来创建一个(在这种情况下,我也不关心位置或突出显示,只是得分),但这似乎有点反常(可能比直接提供计数要慢)
(邮件列表上也有询问)无论如何,创建文档不需要将所有内容都通过分析器。我不知道有什么方法可以按照您的要求传递术语和频率(尽管我很想知道您是否找到一个好的方法),但您肯定可以一次传递一个术语。这仍然需
让我先说一句,我不是以一种非常普通的方式使用Lucene,并解释我的问题是如何有意义的。我用Lucene搜索结构化记录。也就是说,索引的每个文档都是一组字段,其中包含给定集合中的短值。对每个字段进行分析和存储,分析生成的标记通常不超过3个,在大多数情况下仅生成1个标准化标记。例如,假设我们为每个文件存储两个字段:文件路径和1-5中的用户评级。路径使用PathHierarchyTokenizer进行标记,评级按原样存储。所以,如果我们有一个像
path: "/a/b/file.txt"
ratin
我需要一个关于如何使用BooleanQuery(或另一种更有效的方式)编写从Lucene索引中删除文档的高效查询的建议-该查询应将多个术语与Guid值(通过“Guid”字段删除文档)以及“版本”字段相结合
索引可能包含“Guid”字段中值相同,但“版本”字段中值不同的文档
以下是我的职责:
private void RemoveFromIndex(string[] guids, IndexWriter writer)
{
var terms = guids
Lucene.NET是否有搜索词的最小长度
我正在使用Lucene进行一个项目,似乎如果我搜索任何使用3个字符或更少字符的内容,都不会得到任何结果
i、 我的名字像PH_11-11-2013
当我搜索pPHPH时,我没有得到任何结果。如果我搜索PH_1,我会返回结果。(举个例子,我搜索的任何使用1-3个字符的内容都不会返回)
我已经搜索了所有的Lucene文档(用于Java),但没有找到任何东西
编辑:分析器
var analyzer = new StandardAnalyzer(Version
标签:elasticsearch Lucene
stemmingporter-stemmer
我们有两个弹性搜索实例,一个运行1.2.1,一个运行1.4,两个实例上运行的索引的设置和映射是相同的,但结果是不同的
默认分析器的设置:
....
analysis: {
filter: {
ourEnglishStopWords: {
type: "stop",
stopwords: "_english_"
},
ourEnglishFilter: {
type: "stemmer",
name: "english"
}
},
analyzer:
我在使用lucene.net时编写了一个数据库动态搜索代码。
我开始创建查询并找到结果的位置,效果非常好!!
但当我使用邻近搜索时,我得到一个错误:
第1行第72列的词法错误。遇到:在“\”之后
我的搜索功能:
private static List<String> GeneralSearch(string txt, Table type)
{
txt= "10~" + txt;
string newQuery = "";
我试图在Lucene 6中使用有效负载,但我遇到了麻烦。其思想是索引有效负载,并在CustomScoreQuery中使用它们来检查查询术语的有效负载是否与文档术语的有效负载匹配。
这是我的有效载荷过滤器:
@Override
public final boolean incrementToken() throws IOException {
if (!this.input.incrementToken()) {
return false;
}
// get
标签: Lucene
alfresco-sharesolr4connectionexception
我使用的是alfresco-community-5.2.0版本和solr4。从我的API命中时出现以下错误。解决办法是什么。我没有得到确切的答案。有人能给我一个解决办法吗。下面是我在户外日志和Solr日志中遇到的错误
露天原木
ERROR [org.quartz.core.JobRunShell] [DefaultScheduler_Worker-4] Job DEFAULT.org.springframework.scheduling.quartz.MethodInvokingJobDetai
我们正在使用Sitecore(版本6.4)Lucene搜索。当我试图搜索任何关键字时,它会抛出“未找到文件”异常。Lucene正在Data\indexes\uuu system\文件夹中查找文件_3zj.fnm
我试图从sitecore重建搜索索引,但4小时后,它没有完成。Sitecore重建窗口显示消息“已处理的XXX项”。这个数字几个小时以来一直没有变化。有几件事你可以先尝试并消除
文件锁定:您是否有病毒检查器可以锁定文件并阻止其被覆盖或可能删除?您是否启用了任何可能导致此类问题的DFS或
我想对单个词进行前缀模糊搜索。
基本上,我希望得到与发送此搜索请求相同的结果:
{
"from": 0,
"size": 100,
"query": {
"query_string": {
"query": "dala~*"
}
},
"filter": {}
}
但是没有查询字符串语法解析。上面的搜索应该与Dallas术语匹配。在ElasticSearch中,如果您设置fuzzy_prefix_length,您应该能够仅指定fuzzy tide
我有以下用于存储字段的配置
<fieldType fieldName="Profile Id" storageType="YES" indexType="TOKENIZED" vectorType="NO" boost="1f" type="System.Guid" nullValue="NULL" emptyString="EMPTY" settingType="Sitecore.ContentSearch.LuceneProvider.LuceneSearchFieldConfigur
我试图查询和比较两个MLT查询分数,但根据我在这里读到的内容,我有点困惑
即使查询规范的目的是从
不同的查询比较,它的工作不是很好。唯一的
相关性评分的目的是对当前测试的结果进行排序
按正确的顺序查询您不应该尝试比较
不同查询的相关性得分
如果我运行MLT查询,文档“A”与文档“B”相似,分数为0.4,反之亦然,
运行MLT查询文档“B”类似于文档“A”,其分数为2.4
根据MLT中匹配的代币,我希望分数是相同的,但事实并非如此
而且,
如果我运行MLT查询,文档“A”与文档“B”相似,分数为
标签: Lucene
full-text-searchtf-idf
嘿,伙计们
我正在做一些与排名相关的研究。我希望使用Lucene为文档集合编制索引,获取它生成的(每个文档的)tfidf表示,修改它们,将它们放回原位,并观察在固定查询集上的排名如何相应地变化
有什么非黑客方式可以做到这一点吗?您的问题太模糊,无法给出明确的答案,特别是关于您计划用什么:
以它生成的(每个文档的)tfidf表示形式为例,修改它们
Lucene存储用于评分的原始值:
每个术语/文档对统计信息:
每个字段/文档对:
所有这些数据都由lucene管理,并将用于计算给定查询项的分
上一页 1 2 ...
21 22 23 24 25 26 27 ...
下一页 最后一页 共 78 页