在使用R进行刮取时,如何避免404错误

在使用R进行刮取时,如何避免404错误,r,web-scraping,R,Web Scraping,我通过循环几个变量插入URL来访问网页 偶尔会出现404错误 如何为这些页面插入某种捕获以避免破坏代码。我目前正在使用XML包,但如果合适的话,当然可以加载其他包 TIA大多数时候我都使用RCurl::url.exists()。如果您有一个包含所有URL的列表或数据框,您可以尝试以下方法: map(p, ~ifelse(RCurl::url.exists(.), ., NA)) 嗯 @Justin。我以此为基础。你想回答这个问题吗

我通过循环几个变量插入URL来访问网页

偶尔会出现404错误

如何为这些页面插入某种捕获以避免破坏代码。我目前正在使用XML包,但如果合适的话,当然可以加载其他包


TIA

大多数时候我都使用
RCurl::url.exists()
。如果您有一个包含所有URL的列表或数据框,您可以尝试以下方法:

map(p, ~ifelse(RCurl::url.exists(.), ., NA))

@Justin。我以此为基础。你想回答这个问题吗