Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/python-3.x/17.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 3.x 模块';pandas#u datareader.data';没有属性';数据读取器';_Python 3.x_Pandas_Yahoo Finance - Fatal编程技术网

Python 3.x 模块';pandas#u datareader.data';没有属性';数据读取器';

Python 3.x 模块';pandas#u datareader.data';没有属性';数据读取器';,python-3.x,pandas,yahoo-finance,Python 3.x,Pandas,Yahoo Finance,我正在尝试运行下面的代码,我正在使用Spyder。我有另一个文件也使用pandas_datareader,我从未在该文件上收到错误消息,该文件也在Spyder上运行。另外另一个文件也使用雅虎,所以我认为这也不是问题所在。我的问题是:我的代码中是否有某种特殊的东西导致此文件没有数据读取器模块 import bs4 as bs import datetime as dt import os import pandas_datareader.data as web import pickle impo

我正在尝试运行下面的代码,我正在使用Spyder。我有另一个文件也使用pandas_datareader,我从未在该文件上收到错误消息,该文件也在Spyder上运行。另外另一个文件也使用雅虎,所以我认为这也不是问题所在。我的问题是:我的代码中是否有某种特殊的东西导致此文件没有数据读取器模块

import bs4 as bs
import datetime as dt
import os
import pandas_datareader.data as web
import pickle
import requests

def save_sp500_tickers():
     resp=requests.get('https://en.wikipedia.org/wiki/List_of_S%26P_500_companies')
    soup=bs.BeautifulSoup(resp.text, 'lxml')
    table=soup.find('table',{'class':'wikitable sortable'})
    tickers=[]
    for row in table.findAll('tr')[1:]:
        ticker=row.findAll('td')[0].text
        tickers.append(ticker)

    with open('sp500tickers.pickle','wb') as f:
        pickle.dump(tickers, f)
    print(tickers)

    return tickers
#save_sp500_tickers()

def get_data_from_yahoo(reload_sp500=False):

    if reload_sp500:
        tickers=save_sp500_tickers()
    else:
        with open('sp500tickers.pickle','rb') as f:
            tickers=pickle.load(f)
    if not os.path.exists('stock_dfs'):
        os.makedirs('stock_dfs')
    start=dt.datetime(2016,1,1)
    end=dt.datetime(2019,5,27)

    for ticker in tickers:
        print(ticker)
        if not os.path.exists('stock_dfs/{}.csv'.format(ticker)):
            df=web.Datareader(ticker, 'yahoo', start, end)
            df.to_csv('stock_dfs/{}.csv'.format(ticker))
        else:
            print('Already have {}' .format(ticker))
get_data_from_yahoo()
试试这个:

from pandas_datareader import data, wb
然后使用:

data.DataReader('path') 

要读取文件

它是错的:需要大写字母“R”:DataReader而不是DataReader我也尝试过将其大写,但仍然不起作用错误不同吗?你得到这个问题的答案了吗?我也面临着同样的问题……不幸的是,我从来没有这样做过。如果你明白了,请告诉我。