使用sapply在R中抓取多个URL

使用sapply在R中抓取多个URL,r,R,下午好 谢谢你帮我解答这个问题 我有一个列表的多个网址,我感兴趣的刮为一个特定的领域 目前,我正在使用下面的函数为特定字段返回我感兴趣的值: dayViews <- function (url) { raw <- readLines(url) dat <- fromJSON(raw) daily <- dat$daily_views$`2014-08-14` return(daily) } 如果有人有任何建议,我将不胜感激 非常感谢,做了一些与您类似

下午好

谢谢你帮我解答这个问题

我有一个列表的多个网址,我感兴趣的刮为一个特定的领域

目前,我正在使用下面的函数为特定字段返回我感兴趣的值:

dayViews <- function (url) {
  raw <- readLines(url)
  dat  <- fromJSON(raw)
  daily <- dat$daily_views$`2014-08-14` 
  return(daily)
}
如果有人有任何建议,我将不胜感激


非常感谢,

做了一些与您类似的事情,@yarbaur,我在R中读到了一份Excel电子表格,其中保存了我想要获取的一组URL的所有URL。它有公司、URL和XPath列。然后尝试类似于下面的代码,我用它代替了我编写的变量名。但是,我没有使用JSON站点:

temp <- apply(yourspreadsheetReadintoR, 1,  
              function(x) {
                yourCompanyName <- x[1]
                yourURLS <- x[2]
                yourxpath <- x[3] # I also store the XPath expressions for each site

                fetch <- content(GET(yourURLS))
                locs <- sapply(getNodeSet(fetch, yourxpath), xmlValue)

                data.frame(coName=rep(yourCompanyName, length(locs)), location=locs)
              })

temp请包括您的sapply代码。你确定URL的整个矢量都能准确无误地刮取吗?刮削时,你应该自由地使用
try
temp <- apply(yourspreadsheetReadintoR, 1,  
              function(x) {
                yourCompanyName <- x[1]
                yourURLS <- x[2]
                yourxpath <- x[3] # I also store the XPath expressions for each site

                fetch <- content(GET(yourURLS))
                locs <- sapply(getNodeSet(fetch, yourxpath), xmlValue)

                data.frame(coName=rep(yourCompanyName, length(locs)), location=locs)
              })