Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/r/82.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
使用Scopus API(rscopus包)从搜索中下载所有XML_R_Api_Scopus - Fatal编程技术网

使用Scopus API(rscopus包)从搜索中下载所有XML

使用Scopus API(rscopus包)从搜索中下载所有XML,r,api,scopus,R,Api,Scopus,我使用Scopus上的高级搜索将文章缩小到适合特定主题的文章;搜索返回了24609个文档。我希望将所有文章下载为XML,然后使用“tm”R包进行文本挖掘,以进一步减少论文数量 在R中使用Scopus API下载XML文件时遇到了问题。理想情况下,我希望通过Scopus API使用rscopus包从搜索中下载所有24609个XML。下面是我用来尝试下载一篇文章的一些代码: api_key = get_api_key(NULL, error = FALSE) if (!is.null(api_ke

我使用Scopus上的高级搜索将文章缩小到适合特定主题的文章;搜索返回了24609个文档。我希望将所有文章下载为XML,然后使用“tm”R包进行文本挖掘,以进一步减少论文数量

在R中使用Scopus API下载XML文件时遇到了问题。理想情况下,我希望通过Scopus API使用rscopus包从搜索中下载所有24609个XML。下面是我用来尝试下载一篇文章的一些代码:

api_key = get_api_key(NULL, error = FALSE)

if (!is.null(api_key)){
  x = article_retrieval("2-s2.0-50949114517", identifier = "eid",
                        verbose = FALSE, view = "FULL")
  gen = x$content$`full-text-retrieval-response`
  ot = gen$originalText
} else {
  x = article_retrieval("2-s2.0-50949114517",
                        identifier = "eid",
                        api_key_error = FALSE)
这将返回一个错误“resource not found”。我还使用DOI尝试了这个方法,但也失败了

虽然这段代码只找到一篇文章,但有没有一种方法可以使用rscopus包从单个搜索中下载所有文章?我有点不知道如何使用这个包来运行它。我能够下载所有文章的CSV文件中的引文信息,其中包括EID和DOI列,因此可以对该列应用文章检索功能


使用R版本3.5.1、Mac OS X 10.13.6,GitHub上有一个脚本

识别ScienceDirect中的所有OpenAccess文章,并将其URI存储在文本文件中

该脚本包含一些通过ISSN循环的逻辑。你也许可以把剧本改编成适合你需要的剧本