Python 2.7 Python';请求';代理不工作/IP泄漏?

Python 2.7 Python';请求';代理不工作/IP泄漏?,python-2.7,proxy,web-scraping,lxml,python-requests,Python 2.7,Proxy,Web Scraping,Lxml,Python Requests,(强烈)与: 我是python新手,所以为我可能犯的错误道歉 无论我选择什么代理,只要我在上面检查我的IP,它就会显示我的真实IP和一个“可能有代理”注释。我试过几十种不同来源的代理…总是被称为“精英”。显然,问题在于我的代码。这里什么都没有: from lxml import html import requests base_url = 'http://www.whatismyproxy.com/' def pagefetch(url): httpproxy = "http://1

(强烈)与: 我是python新手,所以为我可能犯的错误道歉

无论我选择什么代理,只要我在上面检查我的IP,它就会显示我的真实IP和一个“可能有代理”注释。我试过几十种不同来源的代理…总是被称为“精英”。显然,问题在于我的代码。这里什么都没有:

from lxml import html
import requests
base_url = 'http://www.whatismyproxy.com/'

def pagefetch(url):
    httpproxy = "http://111.13.109.51"
    proxydict = {
                "http_proxy": httpproxy
                }

    page = requests.get(url, proxies=proxydict)
    return page

def scrape1(base_url):
    page = pagefetch(base_url)
    tree = html.fromstring(page.text)
    head1 = tree.xpath('//p[@class="h1"]/text()')
    return head1

txt1 = scrape1(base_url)
print txt1
这是一个简化版本的刮刀,我目前正在工作,因此它有点笨重。 为了澄清,我在连接代理方面没有任何问题。
提前感谢=)我使用的是ubuntu 14.04 btw。

你的
proxydict
是错误的。应该是

proxydict = {
    'http': httpproxy
}
如果您希望将代理指定为脚本的参数,则可以执行以下操作:

http_proxy='http://111.13.109.51' python my_script.py

…哦,哇。那只是…尴尬。是谁让我这么做的!?该死的互联网!谢谢你…非常感谢不用说,这对我很有效。很容易把他们搞糊涂。我至少这样做过几次,而且我是requests=P的核心开发人员