Python 3.x 使用代理的python请求

Python 3.x 使用代理的python请求,python-3.x,web-scraping,proxy,Python 3.x,Web Scraping,Proxy,在我的脚本中,我试图使用q代理服务器发出请求。 我只是: import requests response = requests.get('https://websiteiwhantget', proxies={"http": '176.36.111.9:56323', "https": '176.36.111.9:56323'}) 我从中获得的代理ip地址,但当我运行sript时,我在get呼叫中输入的每个网站都有: raise ProxyErrore,请求=请求 requests.exc

在我的脚本中,我试图使用q代理服务器发出请求。 我只是:

import requests

response = requests.get('https://websiteiwhantget', proxies={"http": '176.36.111.9:56323', "https": '176.36.111.9:56323'})
我从中获得的代理ip地址,但当我运行sript时,我在get呼叫中输入的每个网站都有:

raise ProxyErrore,请求=请求 requests.exceptions.ProxyError:HTTPSConnectionPoolhost='www.moma.com',port=443:url:'超过最大重试次数,原因是ProxyError'无法连接到代理',RemoteDisconnected'远程端关闭连接而无响应'

如果我删除requests.get中的代理指令,则所有操作都已完成。 为什么使用代理时我的脚本不起作用?自由代理列表中列出的代理是否错误,或者我必须更改python调用? 我使用Python3.6

非常感谢 AM

请阅读以下内容:

试试这个:

    import requests
    import random
    from lxml.html import fromstring

    url = 'https://free-proxy-list.net/anonymous-proxy.html'
    response = requests.get(url)
    parser = fromstring(response.text)
    proxies = []
    for i in parser.xpath('//tbody/tr')[:20]:
        if i.xpath('.//td[7][contains(text(),"yes")]'):
            proxy = ":".join([i.xpath('.//td[1]/text()')[0], i.xpath('.//td[2]/text()')[0]])

        try:
            t = requests.get("https://www.google.com/", proxies={"http": proxy, "https": proxy}, timeout=5)
            if t.status_code == requests.codes.ok:
                proxies.append(proxy)
        except:
            pass

    proxy = proxies[random.randint(0, len(proxies)-1)]

    response = requests.get('https://websiteiwhantget', proxies={"http": proxy, "https": proxy})
请阅读以下内容:

试试这个:

    import requests
    import random
    from lxml.html import fromstring

    url = 'https://free-proxy-list.net/anonymous-proxy.html'
    response = requests.get(url)
    parser = fromstring(response.text)
    proxies = []
    for i in parser.xpath('//tbody/tr')[:20]:
        if i.xpath('.//td[7][contains(text(),"yes")]'):
            proxy = ":".join([i.xpath('.//td[1]/text()')[0], i.xpath('.//td[2]/text()')[0]])

        try:
            t = requests.get("https://www.google.com/", proxies={"http": proxy, "https": proxy}, timeout=5)
            if t.status_code == requests.codes.ok:
                proxies.append(proxy)
        except:
            pass

    proxy = proxies[random.randint(0, len(proxies)-1)]

    response = requests.get('https://websiteiwhantget', proxies={"http": proxy, "https": proxy})

如果您不介意付费代理解决方案,您可以尝试使用,它将验证其数据库中的所有代理。如果您不介意付费代理解决方案,您可以尝试使用,它将验证其数据库中的所有代理。