File 从服务器获取特定文件
使用Terminal和Shell/Bash命令有没有从web目录中检索特定文件的方法?即 目录:www.site.com/samples/ 将以“.h”结尾的所有文件复制到文件夹中 该文件夹包含文本文件和其他无用的关联文件 谢谢:)File 从服务器获取特定文件,file,bash,shell,terminal,File,Bash,Shell,Terminal,使用Terminal和Shell/Bash命令有没有从web目录中检索特定文件的方法?即 目录:www.site.com/samples/ 将以“.h”结尾的所有文件复制到文件夹中 该文件夹包含文本文件和其他无用的关联文件 谢谢:) 您可以使用wget进行此操作,但如果没有指向该文件的链接。也就是说,它们存在,但没有从任何html页面引用,那么bruteforce是唯一的选项。有多种递归实现方法: 1.使用查找 1.1使用find-p创建目录以创建无错误的递归文件夹 cd path; mkdir
您可以使用wget进行此操作,但如果没有指向该文件的链接。也就是说,它们存在,但没有从任何html页面引用,那么bruteforce是唯一的选项。有多种递归实现方法: 1.使用查找 1.1使用find-p创建目录以创建无错误的递归文件夹
cd path;
mkdir backup
find www.site.com/samples/ -type d -exec mkdir -p {} backup/{} \;
1.2查找特定文件并复制到备份文件夹-p保留权限
find www.site.com/samples/ -name \*.h -exec cp -p {} backup/{} \;
tar --exclude=*.txt --exclude=*.filetype2 --exclude=*.filetype3 -cvzf site-backup.tar.gz www.site.com
mv www.site.com www.site.com.1
tar -xvzf site-backup.tar.gz
谢谢你的回复。抱歉,我花了这么长时间才更新此。。我得到了一个找不到的文件,尽管我正在从中获取样本:我不想单独下载每个文件!有什么想法吗?这听起来像是远程web内容,而不是本地文件,这是给你的建议:你可以尝试:wget-m---once done cd www.cs.dartmouth.edu/~dwagn/aiproj,并且站点中的所有文件都是本地文件,我无法访问服务器,这会是一个问题吗?在这种情况下,您需要像远程用户一样获取文件,您可以使用各种命令/实用程序-上面的注释突出显示了wget-m url,它是站点的镜像,应该可以正常工作。wget-mcs.dartmouth.edu/~dwagn/aiproj
tar --exclude=*.txt --exclude=*.filetype2 --exclude=*.filetype3 -cvzf site-backup.tar.gz www.site.com
mv www.site.com www.site.com.1
tar -xvzf site-backup.tar.gz