Web scraping Rvest:从csv中抓取多个URL
我正试图从多个网站中获取某个元素。一个接一个的rvest工作正常,但是否有可能一次删除所有URL?我有一个包含所有URL的csv文件,但在read_html中只能插入一个字符串值。你有什么想法吗?提前Thx 现在我是这样工作的:Web scraping Rvest:从csv中抓取多个URL,web-scraping,rvest,Web Scraping,Rvest,我正试图从多个网站中获取某个元素。一个接一个的rvest工作正常,但是否有可能一次删除所有URL?我有一个包含所有URL的csv文件,但在read_html中只能插入一个字符串值。你有什么想法吗?提前Thx 现在我是这样工作的: test1<- read_html("https://www.startnext.com/higchic") Site1 <- test1 %>% html_nodes(".js-accordeon:nth-ch
test1<- read_html("https://www.startnext.com/higchic")
Site1 <- test1 %>%
html_nodes(".js-accordeon:nth-child(4) .accordeon__answer") %>%
html_text() %>%
as.character()
test2<- read_html("https://www.startnext.com/sauberkasten")
Site2 <- test2 %>%
html_nodes(".js-accordeon:nth-child(4) .accordeon__answer") %>%
html_text() %>%
as.character()
test1%
html_text()%>%
as.character()
测试2%
html_text()%>%
as.character()
通过连接URL,您可以一次刮取几个URL,但超过几个会导致错误。如果你知道怎么做,请告诉我
代码如下:
url <- c("https://www.vox.com/", "https://www.bbc.com/")
page <-map(url, ~read_html(.x) %>% html_nodes("p") %>% html_text())
str(page)
url%html\u text())
str(第页)
通过连接URL,您可以一次刮取几个URL,但超过几个会导致错误。如果你知道怎么做,请告诉我
代码如下:
url <- c("https://www.vox.com/", "https://www.bbc.com/")
page <-map(url, ~read_html(.x) %>% html_nodes("p") %>% html_text())
str(page)
url%html\u text())
str(第页)