Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/r/70.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
删除R中情感词汇中的单词_R_Sentiment Analysis - Fatal编程技术网

删除R中情感词汇中的单词

删除R中情感词汇中的单词,r,sentiment-analysis,R,Sentiment Analysis,我正在使用nrc、bing和afinn词汇进行R中的情绪分析 现在我想从这些词典中删除一些特定的单词,但我不知道如何做,因为这些词典没有保存在我的环境中 我的代码如下所示(以nrc为例): MyTextFile%>% 内部加入(获得情感(“nrc”))%>% 计数(情绪,排序=TRUE)这里有两种方法可以做到这一点(无疑还有更多)。首先请注意,在nrc词典中有13901个单词: > library(tidytext) > library(dplyr) > sentiments

我正在使用nrc、bing和afinn词汇进行R中的情绪分析

现在我想从这些词典中删除一些特定的单词,但我不知道如何做,因为这些词典没有保存在我的环境中

我的代码如下所示(以nrc为例):

MyTextFile%>%
内部加入(获得情感(“nrc”))%>%

计数(情绪,排序=TRUE)
这里有两种方法可以做到这一点(无疑还有更多)。首先请注意,在
nrc
词典中有13901个单词:

> library(tidytext)
> library(dplyr)
> sentiments <- get_sentiments("nrc")
> sentiments
# A tibble: 13,901 x 2
   word        sentiment
   <chr>       <chr>    
 1 abacus      trust    
 2 abandon     fear     
 3 abandon     negative 
 4 abandon     sadness 
 5 abandoned   anger    
 6 abandoned   fear    
... and so on
然后,您只需使用您创建的
情绪
进行情绪分析:

> library(gutenbergr)
> hgwells <- gutenberg_download(35) # loads "The Time Machine"
> hgwells %>% unnest_tokens(word,text) %>% 
      inner_join(sentiments) %>% count(word,sort=TRUE)
Joining, by = "word"
# A tibble: 1,077 x 2
   word         n
   <chr>    <int>
 1 white      236
 2 feeling    200
 3 time       200
 4 sun        145
 5 found      132
 6 darkness   108
>库(古腾堡)
>hgwells hgwells%%>%n最新标记(单词、文本)%%>%
内部连接(情感)%>%count(字,排序=TRUE)
连接,通过=“word”
#A tibble:1077x2
单词n
1白色236
2.感觉200
3次200
4星期日145
5发现132
6黑暗108

希望这能有所帮助。

如果您可以制作一个要删除的单词的数据框,您可以使用反连接排除这些单词:

word_list <- c("words","to","remove")
words_to_remove <- data.frame(words=word_list)

MyTextFile %>%
  inner_join(get_sentiments("nrc")) %>%
  anti_join(words_to_remove) %>%
  count(sentiment, sort = TRUE)
word\u列表%
反连接(字到删除)%>%
计数(情绪,排序=真)
> library(gutenbergr)
> hgwells <- gutenberg_download(35) # loads "The Time Machine"
> hgwells %>% unnest_tokens(word,text) %>% 
      inner_join(sentiments) %>% count(word,sort=TRUE)
Joining, by = "word"
# A tibble: 1,077 x 2
   word         n
   <chr>    <int>
 1 white      236
 2 feeling    200
 3 time       200
 4 sun        145
 5 found      132
 6 darkness   108
word_list <- c("words","to","remove")
words_to_remove <- data.frame(words=word_list)

MyTextFile %>%
  inner_join(get_sentiments("nrc")) %>%
  anti_join(words_to_remove) %>%
  count(sentiment, sort = TRUE)