Apache spark 下载Apache Solr时发现错误

Apache spark 下载Apache Solr时发现错误,apache-spark,solr,web-crawler,Apache Spark,Solr,Web Crawler,我正在尝试使用ApacheSpark上的Sparker:Crawler。我从这个链接中的需求开始: 第一步是下载ApacheSolr。因此,当我使用此命令时: cp -rv ${SPARKLER_GIT_SOURCE_PATH}/conf/solr/crawldb server/solr/configsets/ 它显示了这个错误: cp:cannotstat'/conf/solr/crawldb':没有这样的文件或目录 我如何解决它?知道在下载Solr时,没有这样的crawldb文件。您是否确

我正在尝试使用ApacheSpark上的Sparker:Crawler。我从这个链接中的需求开始: 第一步是下载ApacheSolr。因此,当我使用此命令时:

cp -rv ${SPARKLER_GIT_SOURCE_PATH}/conf/solr/crawldb server/solr/configsets/
它显示了这个错误:
cp:cannotstat'/conf/solr/crawldb':没有这样的文件或目录


我如何解决它?知道在下载Solr时,没有这样的crawldb文件。

您是否确实设置了Sparker\u GIT\u SOURCE\u PATH环境变量,试图从中读取路径?我认为关键是你应该用下载Sparker的路径(或者适当地设置env var)来代替它。谢谢你的帮助,似乎就是这样。