Timeout rcurl刮纸超时退出程序

Timeout rcurl刮纸超时退出程序,timeout,scrape,rcurl,Timeout,Scrape,Rcurl,我使用循环和rcurl从多个页面中刮取数据,这在某些时候似乎工作正常,但由于服务器没有响应而导致超时时失败 我使用了timeout=30来捕获超时错误,但是程序在超时后停止。我想程序继续到下一页时,超时发生,但不知道如何做到这一点 url = getCurlHandle(cookiefile = "", verbose = TRUE) 下面是我正在使用的导致超时的语句。如果有兴趣,我很乐意分享代码 webpage = getURLContent(url, followlocation=TRUE

我使用循环和rcurl从多个页面中刮取数据,这在某些时候似乎工作正常,但由于服务器没有响应而导致超时时失败

我使用了timeout=30来捕获超时错误,但是程序在超时后停止。我想程序继续到下一页时,超时发生,但不知道如何做到这一点

url = getCurlHandle(cookiefile = "", verbose = TRUE)
下面是我正在使用的导致超时的语句。如果有兴趣,我很乐意分享代码

webpage = getURLContent(url, followlocation=TRUE, curl = curl,.opts=list( verbose = TRUE, timeout=90, maxredirs = 2))
伍德沃德JJ