Python 如何将StandardAnalyzer与TermQuery结合使用?

Python 如何将StandardAnalyzer与TermQuery结合使用?,python,lucene,pylucene,Python,Lucene,Pylucene,我正在尝试生成类似于lucene中QueryParser的功能,但没有解析器,即通过StandardAnalyzer运行字符串,将其标记化,并在布尔查询中使用TermQuery:s生成查询。我的问题是,我只从StandardAnalyzer获取令牌:s,而不是术语:s。我可以通过使用Token.term()从标记中提取字符串,将其转换为一个术语,但这是2.4.x版本,而且似乎是向后的,因为我需要再次添加该字段。使用StandardAnalyzer生成TermQuery的正确方法是什么 我使用的是

我正在尝试生成类似于lucene中QueryParser的功能,但没有解析器,即通过StandardAnalyzer运行字符串,将其标记化,并在布尔查询中使用TermQuery:s生成查询。我的问题是,我只从StandardAnalyzer获取令牌:s,而不是术语:s。我可以通过使用Token.term()从标记中提取字符串,将其转换为一个术语,但这是2.4.x版本,而且似乎是向后的,因为我需要再次添加该字段。使用StandardAnalyzer生成TermQuery的正确方法是什么

我使用的是pylucene,但我想Java等的答案是一样的。下面是我想到的代码:

from lucene import *
def term_match(self, phrase):
    query = BooleanQuery()
    sa = StandardAnalyzer()               
    for token in sa.tokenStream("contents", StringReader(phrase)):
        term_query = TermQuery(Term("contents", token.term())
        query.add(term_query), BooleanClause.Occur.SHOULD)

获取令牌文本的既定方法是使用
token.termText()
——该API一直存在


是的,您需要为
分析器和
术语指定字段名;我认为这是正常的。8-

我遇到了同样的问题,使用Lucene 2.9 API和Java,我的代码片段如下所示:

final TokenStream tokenStream = new StandardAnalyzer(Version.LUCENE_29)
    .tokenStream( fieldName , new StringReader( value ) );
final List< String > result = new ArrayList< String >();
try {
while ( tokenStream.incrementToken() ) {
  final TermAttribute term = ( TermAttribute ) tokenStream.getAttribute( TermAttribute.class );
  result.add( term.term() );
}
final-TokenStream-TokenStream=新标准分析器(Version.LUCENE_29)
.tokenStream(字段名、新StringReader(值));
最终列表<字符串>结果=新的ArrayList<字符串>();
试一试{
while(tokenStream.incrementToken()){
final termtattribute term=(termtattribute)tokenStream.getAttribute(termtattribute.class);
result.add(term.term());
}

根据API文档,token.termText()已被弃用,他们建议我改为使用token.termBuffer()[0:token.termLength()]之类的东西,它可以工作,但看起来更笨拙。