Python 在webbrowser中定期打开的某些URL上未获得urllib响应

Python 在webbrowser中定期打开的某些URL上未获得urllib响应,python,urllib,urllib3,Python,Urllib,Urllib3,我对python3上的urllib有一个问题,我不知道如何解决。 这是我的代码: import urllib.request hdr = { 'User-Agent' : 'super happy flair bot by /u/spladug' } req = urllib.request.Request(url,headers=hdr) data = urllib.request.urlopen(req,timeout=10).read()

我对python3上的urllib有一个问题,我不知道如何解决。 这是我的代码:

import urllib.request
       hdr = { 'User-Agent' : 'super happy flair bot by /u/spladug' }
       req = urllib.request.Request(url,headers=hdr)
       data = urllib.request.urlopen(req,timeout=10).read()
       return data
我试过的东西:

  • 更改用户代理
  • 添加和删除超时
  • 卷曲这些站点
  • 但仍然有一些网站(以图像文件扩展名结尾,如or.jpg)我无法得到回复, 如果我设置了一个超时,我会得到TimeOutError。但是如果我在chrome中打开同一个站点,一切都会正常工作。 是否有人有任何解决方案或面对这个问题

    站点示例-

    我不知道您的代码中有什么错误,但我使用的是
    请求
    ,我从来没有遇到过这个问题

    import requests
    response=requests.get(URL)
    print(response.text)
    
    如何在请求中使用头。get()

    我没有收到任何错误,因为我甚至没有收到回复。我知道如何使用请求和urllib,只是一些特定的网站不起作用。如果没有至少一个导致问题的URL示例,任何人都很难解决这个问题。尝试将代码问题作为可复制的示例发布:@CrazyChunky哎呀,忘了添加站点示例获取此消息UPI没有解决方案,但需要添加到“不起作用”堆中的内容:在成功访问URL时复制Chrome发送的整组头,检查是否有重定向(没有重定向),并使用
    -k
    运行
    curl
    ,以防出现某种SSL错误。(同时尝试
    请求
    ,尽管我看到你在对Andrej的回答的推荐中提到了这一点。)我不知道为什么它不起作用,但如果你编辑你的问题时更详细地说明什么不起作用,它可能会帮助吸引正确的人。