Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/email/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Web scraping Rvest:从csv中抓取多个URL_Web Scraping_Rvest - Fatal编程技术网

Web scraping Rvest:从csv中抓取多个URL

Web scraping Rvest:从csv中抓取多个URL,web-scraping,rvest,Web Scraping,Rvest,我正试图从多个网站中获取某个元素。一个接一个的rvest工作正常,但是否有可能一次删除所有URL?我有一个包含所有URL的csv文件,但在read_html中只能插入一个字符串值。你有什么想法吗?提前Thx 现在我是这样工作的: test1<- read_html("https://www.startnext.com/higchic") Site1 <- test1 %>% html_nodes(".js-accordeon:nth-ch

我正试图从多个网站中获取某个元素。一个接一个的rvest工作正常,但是否有可能一次删除所有URL?我有一个包含所有URL的csv文件,但在read_html中只能插入一个字符串值。你有什么想法吗?提前Thx

现在我是这样工作的:

 test1<- read_html("https://www.startnext.com/higchic")

Site1 <- test1 %>% 
  html_nodes(".js-accordeon:nth-child(4) .accordeon__answer") %>%
  html_text() %>%
  as.character()

test2<- read_html("https://www.startnext.com/sauberkasten")

Site2 <- test2 %>% 
  html_nodes(".js-accordeon:nth-child(4) .accordeon__answer") %>%
  html_text() %>%
  as.character()
test1%
html_text()%>%
as.character()
测试2%
html_text()%>%
as.character()

通过连接URL,您可以一次刮取几个URL,但超过几个会导致错误。如果你知道怎么做,请告诉我

代码如下:

 url <- c("https://www.vox.com/", "https://www.bbc.com/")
 page <-map(url, ~read_html(.x) %>% html_nodes("p") %>% html_text())
 str(page)
url%html\u text())
str(第页)

通过连接URL,您可以一次刮取几个URL,但超过几个会导致错误。如果你知道怎么做,请告诉我

代码如下:

 url <- c("https://www.vox.com/", "https://www.bbc.com/")
 page <-map(url, ~read_html(.x) %>% html_nodes("p") %>% html_text())
 str(page)
url%html\u text())
str(第页)