Algorithm 融合拼写纠错算法的拼写检查器

Algorithm 融合拼写纠错算法的拼写检查器,algorithm,nlp,spell-checking,Algorithm,Nlp,Spell Checking,最近我研究了几种拼写检查算法,包括简单的(比如)和更复杂的(比如)算法。但是有一种错误是他们都无法处理的。例如,如果我键入stackoverflow而不是stack overflow,这些拼写检查器将无法纠正错误键入(除非术语词典中的stack overflow)。存储所有成对的单词代价太高(如果错误是3个单词之间没有空格,那么这也没有帮助)。 是否有一种算法可以纠正(尽管通常输入错误)这类错误 我需要的一些示例: spel检查程序->拼写检查程序 拼写检查程序->拼写检查程序 spelchek

最近我研究了几种拼写检查算法,包括简单的(比如)和更复杂的(比如)算法。但是有一种错误是他们都无法处理的。例如,如果我键入
stackoverflow
而不是
stack overflow
,这些拼写检查器将无法纠正错误键入(除非术语词典中的
stack overflow
)。存储所有成对的单词代价太高(如果错误是3个单词之间没有空格,那么这也没有帮助)。 是否有一种算法可以纠正(尽管通常输入错误)这类错误

我需要的一些示例:
spel检查程序
->
拼写检查程序

拼写检查程序
->
拼写检查程序


spelcheker
->
拼写检查器

在kate中检查拼写时,我有时会收到这样的建议,因此肯定有一种算法可以纠正一些这样的错误。我相信有人可以做得更好,但有一个想法是在可能的地方分割候选对象,并检查是否存在组件的紧密匹配。困难的部分是决定哪些地方可能会出现。在我比较熟悉的语言中,有一些字母组合很少出现在单词中。例如,据我所知,
dk
lh
的组合在英语单词中很少见。其他组合通常出现在单词的开头(例如,
un
ch
),因此这些组合也是拆分的好猜测。在示例
spelcheker
中,
lc
组合并不太普遍,而且
ch
是单词的常见开头,因此拆分
spel
cheker
是主要候选,任何合适的算法都会找到
拼写
检查
(但它可能也会发现
spiel
,所以不要自动更正,只需给出建议)。

为此,我入侵了诺维格的拼写更正器。我不得不做一些欺骗,并在诺维格的数据文件中添加“checker”一词,因为它从未出现过。没有欺骗,问题真的很难解决

expertsexchange expert exchange
spel checker spell checker
spellchecker spell checker
spelchecker she checker  # can't win them all
baseball base all  # baseball isn't in the dictionary either :(
hewent he went
基本上,您需要更改代码,以便:

  • 您可以在字母表中添加空格,以自动探索分词
  • <>你首先检查组成短语的所有单词都在字典中考虑短语有效,而不是直接使用字典成员身份(DICT不包含短语)。
  • 你需要一种方法来给一个短语和简单的词打分
后者是最棘手的,我对短语组合使用了一个脑死独立的假设,即两个相邻单词的概率是它们各自概率的乘积(这里使用log prob空间中的sum)我相信在实践中,你会想要保留一些二元统计数据来很好地进行分割

import re, collections, math

def words(text): return re.findall('[a-z]+', text.lower())

def train(features):
  counts = collections.defaultdict(lambda: 1.0)
  for f in features:
    counts[f] += 1.0
  tot = float(sum(counts.values()))
  model = collections.defaultdict(lambda: math.log(.1 / tot))
  for f in counts:
    model[f] = math.log(counts[f] / tot)
  return model

NWORDS = train(words(file('big.txt').read()))

alphabet = 'abcdefghijklmnopqrstuvwxyz '

def valid(w):
  return all(s in NWORDS for s in w.split())

def score(w):
  return sum(NWORDS[s] for s in w.split()) - w.count(' ')

def edits1(word):
  splits     = [(word[:i], word[i:]) for i in range(len(word) + 1)]
  deletes    = [a + b[1:] for a, b in splits if b]
  transposes = [a + b[1] + b[0] + b[2:] for a, b in splits if len(b)>1]
  replaces   = [a + c + b[1:] for a, b in splits for c in alphabet if b]
  inserts    = [a + c + b     for a, b in splits for c in alphabet]
  return set(deletes + transposes + replaces + inserts)

def known_edits2(word):
  return set(e2 for e1 in edits1(word) for e2 in edits1(e1) if valid(e2))

def known(words): return set(w for w in words if valid(w))

def correct(word):
  candidates = known([word]) or known(edits1(word)) or known_edits2(word) or [word]
  return max(candidates, key=score)

def t(w):
  print w, correct(w)

t('expertsexchange')
t('spel checker')
t('spellchecker')
t('spelchecker')
t('baseball')
t('hewent')

这个问题非常类似于应用于德语或荷兰语的复合拆分问题,但也适用于嘈杂的英语数据。有关一个非常简单的算法(我认为可以将其作为有限状态转换器来实现以提高效率),请参阅,Google用于“复合拆分”和“分解”