在代理后面使用Python的Quandl时发生urllib2.URLError

在代理后面使用Python的Quandl时发生urllib2.URLError,python,pandas,proxy,quantitative-finance,quandl,Python,Pandas,Proxy,Quantitative Finance,Quandl,我之所以发布这篇文章,是因为我试图自己寻找答案,但却找不到解决方案。我最终找到了一种方法让它发挥作用&我希望这对将来的其他人有所帮助 脚本: 在Windows XP中,我使用Python和Pandas&Quandl,使用以下代码行获取美国股票证券的数据: bars = Quandl.get("GOOG/NYSE_SPY", collapse="daily") 不幸的是,我遇到了以下错误: urllib2.URLError: <urlopen error [Errno 10060] A c

我之所以发布这篇文章,是因为我试图自己寻找答案,但却找不到解决方案。我最终找到了一种方法让它发挥作用&我希望这对将来的其他人有所帮助

脚本: 在Windows XP中,我使用Python和Pandas&Quandl,使用以下代码行获取美国股票证券的数据:

bars = Quandl.get("GOOG/NYSE_SPY", collapse="daily")
不幸的是,我遇到了以下错误:

urllib2.URLError: <urlopen error [Errno 10060] A connection attempt failed because the connected party did not properly respond after a period of time, or established connection failed because connected host has failed to respond>

谢谢-我很想听听对此解决方案的任何改进或其他建议。

如果您不能或不愿设置系统环境变量,您可以设置您的用户环境变量
HTTP\u PROXY

set HTTP_PROXY "10.11.123.456:8080"
python yourscript.py
以及永久设置(使用setx from):


获取此环境变量集的其他方法包括:注册表项,将
os.environ[“HTTP_PROXY”]=…”放入
sitecustomize.py`.

使用请求而不使用Quandl包的更多控件:

import requests

    def main():
        proxies = {'http': 'http://proxy.yourdomain.com:port',
                   'https': 'http://proxy.yourdomain.com:port',}

        url =  'https://www.quandl.com/api/v3/datasets/GOOG/NYSE_SPY.json?collapse=daily'

        response = requests.get(url, proxies=proxies)

        status = response.status_code
        html_text = response.text
        repo_data = response.json()

        print(repo_data)

        print(status)

        print('HTML TEXT')
        print('=========')
        print(html_text)

if __name__ == '__main__':
    main() 

你真的应该将答案作为答案发布,而不是在问题中发布。如果你只在问题中发布问题,然后将答案与你的解决方案一起发布,可能会更好。感谢反馈。我更新了标题以使其更清晰,下次我将使用“回答你的问题”功能。
setx HTTP_PROXY "10.11.123.456:8080"
python yourscript.py
import requests

    def main():
        proxies = {'http': 'http://proxy.yourdomain.com:port',
                   'https': 'http://proxy.yourdomain.com:port',}

        url =  'https://www.quandl.com/api/v3/datasets/GOOG/NYSE_SPY.json?collapse=daily'

        response = requests.get(url, proxies=proxies)

        status = response.status_code
        html_text = response.text
        repo_data = response.json()

        print(repo_data)

        print(status)

        print('HTML TEXT')
        print('=========')
        print(html_text)

if __name__ == '__main__':
    main()