Web 在使用wget下载网页时,如何保持登录到网站
我使用带有递归选项的wget下载网站的一部分。为了使我能够下载仅对登录用户可用的目录和文件,我正在使用--load cookies选项 这在一段时间内效果不错。但在一段时间后,会话将过期,我将开始收到403个受保护页面的错误 我如何解决这个问题 理想情况下,我希望告诉wget定期重新登录,但我认为在命令运行时这是不可能的Web 在使用wget下载网页时,如何保持登录到网站,web,web-scraping,command-line,terminal,wget,Web,Web Scraping,Command Line,Terminal,Wget,我使用带有递归选项的wget下载网站的一部分。为了使我能够下载仅对登录用户可用的目录和文件,我正在使用--load cookies选项 这在一段时间内效果不错。但在一段时间后,会话将过期,我将开始收到403个受保护页面的错误 我如何解决这个问题 理想情况下,我希望告诉wget定期重新登录,但我认为在命令运行时这是不可能的