Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/file/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
我想使用URL地址来word抓取24个网页_R_Web Scraping - Fatal编程技术网

我想使用URL地址来word抓取24个网页

我想使用URL地址来word抓取24个网页,r,web-scraping,R,Web Scraping,我使用的是Rstudio版本1.3.1093 这就是任务: 我需要将一堆文本拼凑到csv文件中,以便分析特定单词的显示方式和位置以及单词的上下文。 我需要每周做一次,我想避免复制我的生活 这就是我所尝试的: 我将24个网站的文本复制/粘贴到csv中。然后对其进行分析 这就是我想知道的: 有没有办法使用网站的URL地址从网站导入原始文本?或者你对另一种更省时的方法有什么建议 我从中抓取内容的链接如下所示: 谢谢你的帮助!:) 在某些情况下可能是这样,但如果我用谷歌搜索scraper,我会毫无例外

我使用的是Rstudio版本1.3.1093

这就是任务: 我需要将一堆文本拼凑到csv文件中,以便分析特定单词的显示方式和位置以及单词的上下文。 我需要每周做一次,我想避免复制我的生活

这就是我所尝试的: 我将24个网站的文本复制/粘贴到csv中。然后对其进行分析

这就是我想知道的: 有没有办法使用网站的URL地址从网站导入原始文本?或者你对另一种更省时的方法有什么建议

我从中抓取内容的链接如下所示:


谢谢你的帮助!:)

在某些情况下可能是这样,但如果我用谷歌搜索scraper,我会毫无例外地得到一页相关和有用的链接。祝你晚上愉快。