在使用R进行刮取时,如何避免404错误
我通过循环几个变量插入URL来访问网页 偶尔会出现404错误 如何为这些页面插入某种捕获以避免破坏代码。我目前正在使用XML包,但如果合适的话,当然可以加载其他包在使用R进行刮取时,如何避免404错误,r,web-scraping,R,Web Scraping,我通过循环几个变量插入URL来访问网页 偶尔会出现404错误 如何为这些页面插入某种捕获以避免破坏代码。我目前正在使用XML包,但如果合适的话,当然可以加载其他包 TIA大多数时候我都使用RCurl::url.exists()。如果您有一个包含所有URL的列表或数据框,您可以尝试以下方法: map(p, ~ifelse(RCurl::url.exists(.), ., NA)) 嗯 @Justin。我以此为基础。你想回答这个问题吗
TIA大多数时候我都使用
RCurl::url.exists()
。如果您有一个包含所有URL的列表或数据框,您可以尝试以下方法:
map(p, ~ifelse(RCurl::url.exists(.), ., NA))
嗯 @Justin。我以此为基础。你想回答这个问题吗