Algorithm 融合拼写纠错算法的拼写检查器
最近我研究了几种拼写检查算法,包括简单的(比如)和更复杂的(比如)算法。但是有一种错误是他们都无法处理的。例如,如果我键入Algorithm 融合拼写纠错算法的拼写检查器,algorithm,nlp,spell-checking,Algorithm,Nlp,Spell Checking,最近我研究了几种拼写检查算法,包括简单的(比如)和更复杂的(比如)算法。但是有一种错误是他们都无法处理的。例如,如果我键入stackoverflow而不是stack overflow,这些拼写检查器将无法纠正错误键入(除非术语词典中的stack overflow)。存储所有成对的单词代价太高(如果错误是3个单词之间没有空格,那么这也没有帮助)。 是否有一种算法可以纠正(尽管通常输入错误)这类错误 我需要的一些示例: spel检查程序->拼写检查程序 拼写检查程序->拼写检查程序 spelchek
stackoverflow
而不是stack overflow
,这些拼写检查器将无法纠正错误键入(除非术语词典中的stack overflow
)。存储所有成对的单词代价太高(如果错误是3个单词之间没有空格,那么这也没有帮助)。
是否有一种算法可以纠正(尽管通常输入错误)这类错误
我需要的一些示例:spel检查程序
->拼写检查程序
拼写检查程序
->拼写检查程序
spelcheker
->拼写检查器
在kate中检查拼写时,我有时会收到这样的建议,因此肯定有一种算法可以纠正一些这样的错误。我相信有人可以做得更好,但有一个想法是在可能的地方分割候选对象,并检查是否存在组件的紧密匹配。困难的部分是决定哪些地方可能会出现。在我比较熟悉的语言中,有一些字母组合很少出现在单词中。例如,据我所知,dk
或lh
的组合在英语单词中很少见。其他组合通常出现在单词的开头(例如,un
,ch
),因此这些组合也是拆分的好猜测。在示例spelcheker
中,lc
组合并不太普遍,而且ch
是单词的常见开头,因此拆分spel
和cheker
是主要候选,任何合适的算法都会找到拼写和检查(但它可能也会发现spiel
,所以不要自动更正,只需给出建议)。为此,我入侵了诺维格的拼写更正器。我不得不做一些欺骗,并在诺维格的数据文件中添加“checker”一词,因为它从未出现过。没有欺骗,问题真的很难解决
expertsexchange expert exchange
spel checker spell checker
spellchecker spell checker
spelchecker she checker # can't win them all
baseball base all # baseball isn't in the dictionary either :(
hewent he went
基本上,您需要更改代码,以便:
- 您可以在字母表中添加空格,以自动探索分词
<>你首先检查组成短语的所有单词都在字典中考虑短语有效,而不是直接使用字典成员身份(DICT不包含短语)。
- 你需要一种方法来给一个短语和简单的词打分
后者是最棘手的,我对短语组合使用了一个脑死独立的假设,即两个相邻单词的概率是它们各自概率的乘积(这里使用log prob空间中的sum)我相信在实践中,你会想要保留一些二元统计数据来很好地进行分割
import re, collections, math
def words(text): return re.findall('[a-z]+', text.lower())
def train(features):
counts = collections.defaultdict(lambda: 1.0)
for f in features:
counts[f] += 1.0
tot = float(sum(counts.values()))
model = collections.defaultdict(lambda: math.log(.1 / tot))
for f in counts:
model[f] = math.log(counts[f] / tot)
return model
NWORDS = train(words(file('big.txt').read()))
alphabet = 'abcdefghijklmnopqrstuvwxyz '
def valid(w):
return all(s in NWORDS for s in w.split())
def score(w):
return sum(NWORDS[s] for s in w.split()) - w.count(' ')
def edits1(word):
splits = [(word[:i], word[i:]) for i in range(len(word) + 1)]
deletes = [a + b[1:] for a, b in splits if b]
transposes = [a + b[1] + b[0] + b[2:] for a, b in splits if len(b)>1]
replaces = [a + c + b[1:] for a, b in splits for c in alphabet if b]
inserts = [a + c + b for a, b in splits for c in alphabet]
return set(deletes + transposes + replaces + inserts)
def known_edits2(word):
return set(e2 for e1 in edits1(word) for e2 in edits1(e1) if valid(e2))
def known(words): return set(w for w in words if valid(w))
def correct(word):
candidates = known([word]) or known(edits1(word)) or known_edits2(word) or [word]
return max(candidates, key=score)
def t(w):
print w, correct(w)
t('expertsexchange')
t('spel checker')
t('spellchecker')
t('spelchecker')
t('baseball')
t('hewent')
这个问题非常类似于应用于德语或荷兰语的复合拆分问题,但也适用于嘈杂的英语数据。有关一个非常简单的算法(我认为可以将其作为有限状态转换器来实现以提高效率),请参阅,Google用于“复合拆分”和“分解”