Python 如何避免Tweepy超时错误?

Python 如何避免Tweepy超时错误?,python,twitter,tweepy,twitter-rest-api,Python,Twitter,Tweepy,Twitter Rest Api,我一直在使用tweepy跟踪给定时间段内的推文(在我搜索的过去7天内的时间间隔),尽管我现在的问题是,当基于高度使用的查询搜索(即趋势主题)搜索和存储推文时,tweepy会向我发回一个错误,说明连接超时 这是我的密码: results = [] for tweet in tweepy.Cursor(api.search, q="trump",count=100, result_type='recent', include_entities=T

我一直在使用
tweepy
跟踪给定时间段内的推文(在我搜索的过去7天内的时间间隔),尽管我现在的问题是,当基于高度使用的查询搜索(即趋势主题)搜索和存储推文时,tweepy会向我发回一个错误,说明连接超时

这是我的密码:

results = []
for tweet in tweepy.Cursor(api.search, q="trump",count=100, result_type='recent',
                           include_entities=True, monitor_rate_limit=True, 
                           since="2016-05-12",until="2016-05-13", wait_on_rate_limit=True, timeout=999999).items():
    results.append(tweet)
错误是:

TweepError: Failed to send request: HTTPSConnectionPool(host='api.twitter.com', port=443): Read timed out. (read timeout=60)
我看到其他帖子通过捕捉错误(参见类似帖子和)来解决这个问题,尽管捕捉错误并重新启动搜索需要重新开始我的tweet列表,并在我的目标时间间隔(24小时)内收集所有tweet这是不可能的,因为由于错误,搜索将每15分钟重新启动一次


关于如何解决这个问题,您有什么想法吗?

可以使用
api.search的
page
参数?(我自己没有做过)@lrnzcig这个参数从哪里来/它做什么?看一看。事实上,如果你直接使用Twitter的RESTAPI,它是不同的,我在包
twython
中使用过它。但是我想在内部,tweepy应该做同样的事情。