Python 使用TweetTokenize时出现不可损坏类型错误
我首先从Twitter上下载一些推文Python 使用TweetTokenize时出现不可损坏类型错误,python,machine-learning,nltk,Python,Machine Learning,Nltk,我首先从Twitter上下载一些推文 tweet\u text=DonaldTrump[“Tweets”] tweet\u text=tweet\u text.str.lower() 然后在下一步中,我们将使用TweetTokenizer Tweet\u tkn=TweetTokenizer() tokens=[Tweet\u tkn.tokenize(t)表示Tweet\u文本中的t] 代币[0:3] 有人能给我解释一下,帮我解决这个问题吗 我曾经遇到过类似的问题,这些问题面临着类似的错误
tweet\u text=DonaldTrump[“Tweets”]
tweet\u text=tweet\u text.str.lower()
然后在下一步中,我们将使用TweetTokenizer
Tweet\u tkn=TweetTokenizer()
tokens=[Tweet\u tkn.tokenize(t)表示Tweet\u文本中的t]
代币[0:3]
有人能给我解释一下,帮我解决这个问题吗
我曾经遇到过类似的问题,这些问题面临着类似的错误,但它们提供了不同的解决方案
列表是可变的,因此不能用作
dict
键。否则,程序可能会将列表添加到字典中,更改其值,现在还不清楚字典中的值是否应在新列表值或旧列表值下可用,或者两者都不可用
如果要将结构化数据用作键,首先需要将它们转换为不可变类型,例如tuple
或frozenset
。对于非嵌套对象,只需使用元组(obj)
。对于LIT的简单列表,您可以使用:
tuple(tuple(elem) for elem in obj)
但是对于任意结构,您必须使用递归。我从一个示例中获取了这段代码,他使用了一个基本脚本并应用了相同的代码。在他的情况下,这是有效的。