使用R和Chrome刮取网页

使用R和Chrome刮取网页,r,web-scraping,rvest,R,Web Scraping,Rvest,我试图通过使用Chrome inspection的路径将该表从这个网站拉到R中,但它不起作用。你能帮我吗?谢谢 library(rvest) library(XML) url <- "https://seekingalpha.com/symbol/MNHVF/profitability" webpage <- read_html(url) rank_data_html <- html_nodes(webpage, 'section#cresscap') # table.cre

我试图通过使用Chrome inspection的路径将该表从这个网站拉到R中,但它不起作用。你能帮我吗?谢谢

library(rvest)
library(XML)

url <- "https://seekingalpha.com/symbol/MNHVF/profitability"
webpage <- read_html(url)
rank_data_html <- html_nodes(webpage, 'section#cresscap') # table.cresscap-table
rank_data <- html_table(rank_data_html)
rank_data1 <- rank_data[[1]]
库(rvest)
库(XML)

url数据来自页面动态进行的附加xhr调用。您可以对此进行请求,并使用
jsonlite
处理json响应。提取相关列表列表,并使用
dplyr bind_rows
生成输出。若需要,可以重命名列以匹配页面上的列

library(jsonlite)
library(dplyr)

data <- jsonlite::read_json('https://seekingalpha.com/symbol/MNHVF/cresscap/fields_ratings?category_id=4&sa_pro=false')
df <- bind_rows(data$fields)
head(df)
library(jsonlite)
图书馆(dplyr)

数据哇,超级!!!但是你能解释一下链接“”是从哪里来的吗?ThanksI在浏览器中重新加载您的url,同时使用开发工具(F12)的“网络”选项卡监视web流量。然后,我搜索了该网络流量,寻找我希望在表中看到的值。例如,请参见此处: