Warning: file_get_contents(/data/phpspider/zhask/data//catemap/3/gwt/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Ios 在Swift中显示NLTokenizer的索引和标记_Ios_Swift_Nltokenizer - Fatal编程技术网

Ios 在Swift中显示NLTokenizer的索引和标记

Ios 在Swift中显示NLTokenizer的索引和标记,ios,swift,nltokenizer,Ios,Swift,Nltokenizer,我正在使用NLTokenizer在swift Playerd中显示令牌列表 如何在标记之前显示索引号 比如: 您可以为此使用一个变量。(这里您可以从1开始索引) 您可以为此使用一个变量。(这里您可以从1开始索引) 您可以尝试下面的代码片段 let text = "Introduction to natural language processing" let tokenizer = NLTokenizer(unit: .word) tokenizer.string = text for (i

我正在使用NLTokenizer在swift Playerd中显示令牌列表

如何在标记之前显示索引号

比如:


您可以为此使用一个变量。(这里您可以从1开始索引)


您可以为此使用一个变量。(这里您可以从1开始索引)


您可以尝试下面的代码片段

let text = "Introduction to natural language processing"
let tokenizer = NLTokenizer(unit: .word)
tokenizer.string = text

for (index, range) in tokenizer.tokens(for: text.startIndex..<text.endIndex).enumerated() {
    print("\(index + 1).\(text[range])")
}
let text=“自然语言处理简介”
let tokenizer=NLTokenizer(单位:.word)
tokenizer.string=文本

对于tokenizer.tokens(for:text.startIndex..中的(索引、范围),您可以尝试下面的代码段

let text = "Introduction to natural language processing"
let tokenizer = NLTokenizer(unit: .word)
tokenizer.string = text

for (index, range) in tokenizer.tokens(for: text.startIndex..<text.endIndex).enumerated() {
    print("\(index + 1).\(text[range])")
}
let text=“自然语言处理简介”
let tokenizer=NLTokenizer(单位:.word)
tokenizer.string=文本
tokenizer.tokens(for:text.startIndex.)中的(索引、范围)。。
Index: 0. Introduction
Index: 1. to
Index: 2. Natural
Index: 3. Language
Index: 4. Processing
let text = "Introduction to natural language processing"
let tokenizer = NLTokenizer(unit: .word)
tokenizer.string = text

for (index, range) in tokenizer.tokens(for: text.startIndex..<text.endIndex).enumerated() {
    print("\(index + 1).\(text[range])")
}