Php 我可以从一个网站复制到本地主机吗

Php 我可以从一个网站复制到本地主机吗,php,copy,web-crawler,Php,Copy,Web Crawler,我编写了一个爬虫程序,它将对网站中的所有页面进行爬网,并下载所有pdf和doc文件。现在我想在下载时对pdf和doc文件进行排序。所以我试着创建一个文件夹,然后把这些文件复制到那个网站上。但我无法复制。错误是我没有权限。除了排序和下载,还有其他选择吗 这就是我选择所有链接的方式 $original_file = file_get_contents($link); $stripped_file = strip_tags($original

我编写了一个爬虫程序,它将对网站中的所有页面进行爬网,并下载所有pdf和doc文件。现在我想在下载时对pdf和doc文件进行排序。所以我试着创建一个文件夹,然后把这些文件复制到那个网站上。但我无法复制。错误是我没有权限。除了排序和下载,还有其他选择吗

这就是我选择所有链接的方式

  $original_file    = file_get_contents($link);
                        $stripped_file  = strip_tags($original_file, "<a>");
                        preg_match_all("/<a(?:[^>]*)href=\"([^\"]*)\"(?:[^>]*)>(?:[^<]*)<\/a>/is", $stripped_file, $matches);
                        return $matches['1'];
$original\u file=文件获取内容($link);
$stripped_file=strip_标签($original_file,“”);

preg_match_all(“/]*)href=\”([^\“]*)\”(?:[^>]*)>(?:[^如果你没有在本地文件系统上复制文件的权限,你需要设置这些权限。顺便说一句:你做了什么违法的事吗?没有违法的事。它们都是免费的pdf。所以整理pdf和广告之间的关系真的很难。所以写了脚本。我知道文件权限。但是我想知道我是否可以将其下载到文件夹中。或者有其他方法吗?您只能逐个文件下载。一次下载文件夹中的所有内容并非不可能。@SILVINCI这是错误的,可以用wget完成,这里应该有一些示例SO@itay:wget抓取每个单独的文件。它不会“抓取整个文件夹”。