Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/google-chrome/4.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
如何从php并行执行scrapy?_Php_Web Scraping_Scrapy_Scrapy Spider_Gnu Parallel - Fatal编程技术网

如何从php并行执行scrapy?

如何从php并行执行scrapy?,php,web-scraping,scrapy,scrapy-spider,gnu-parallel,Php,Web Scraping,Scrapy,Scrapy Spider,Gnu Parallel,我在一个数组中有90个URL [url1,url2,url3, ... , url90] 我想让3个蜘蛛同时工作,并向每个蜘蛛传递1个url,因此,我的第一个Scrapy实例得到url1,第二个得到url2,第三个得到url3,当第一个完成工作时,他将得到url4 我用过,但如果有其他更好的软件,我会用它 我在php中尝试了这个,因为我应该从php启动我的scrapy exec (for url in urlsTab | parallel -j 3 scrapy crawl mySpider

我在一个数组中有90个URL

[url1,url2,url3,  ... , url90]
我想让3个蜘蛛同时工作,并向每个蜘蛛传递1个url,因此,我的第一个Scrapy实例得到url1,第二个得到url2,第三个得到url3,当第一个完成工作时,他将得到url4

我用过,但如果有其他更好的软件,我会用它

我在php中尝试了这个,因为我应该从php启动我的scrapy

exec (for url in urlsTab | parallel -j 3 scrapy crawl mySpider -a url {}) 

您可能想要这样的东西(未经测试):

$parallel = popen("parallel -j 3 scrapy crawl mySpider","w");
foreach($urlsTab as $url) {
    fwrite($parallel,$url+"\n");
}
close $parallel;