Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/regex/20.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Javascript wget";“镜像”;链接到不同域的pdf_Javascript_Regex_Url_Download_Wget - Fatal编程技术网

Javascript wget";“镜像”;链接到不同域的pdf

Javascript wget";“镜像”;链接到不同域的pdf,javascript,regex,url,download,wget,Javascript,Regex,Url,Download,Wget,包含(请注意不同的域) 我可以使用wget直接下载pdf,但似乎无法识别正确的wget命令行选项来“镜像”包含此链接pdf的网页。我尝试使用多种选项组合,如 -p --跨主机 -D --接受 没有成功 可以使用wget(或其他一些命令行工具)下载链接的pdf-s吗 谢谢当pdf链接显示在浏览器中时,页面源不包含下载链接。因此,wget无法查看/跟踪链接,因为它不会真正“处理”页面。虽然pdf链接在浏览器中显示,但页面源不包含下载链接。因此,wget无法查看/跟踪链接,因为它不会真正“处理”页

包含(请注意不同的域)

我可以使用wget直接下载pdf,但似乎无法识别正确的wget命令行选项来“镜像”包含此链接pdf的网页。我尝试使用多种选项组合,如

  • -p
  • --跨主机
  • -D
  • --接受
没有成功

可以使用wget(或其他一些命令行工具)下载链接的pdf-s吗


谢谢

当pdf链接显示在浏览器中时,页面源不包含下载链接。因此,
wget
无法查看/跟踪链接,因为它不会真正“处理”页面。

虽然pdf链接在浏览器中显示,但页面源不包含下载链接。因此,
wget
无法查看/跟踪链接,因为它不会真正“处理”页面。

尝试解析。(我用HttpFox找到了这个url。)格式化代码(例如用)后,很容易将pdf文件的url变灰。

尝试解析。(我用HttpFox找到了这个url。)在格式化代码(例如用)后,很容易将pdf文件的url显示出来