Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/spring-mvc/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 使用PRAW获得1000多个搜索结果(上限)?_Python_Praw_Reddit - Fatal编程技术网

Python 使用PRAW获得1000多个搜索结果(上限)?

Python 使用PRAW获得1000多个搜索结果(上限)?,python,praw,reddit,Python,Praw,Reddit,我目前正在使用Praw/Python清理用户过去对Reddit的评论,我希望在查询时超越上限(1k) 我读过一些关于Cloudsearch语法的文章,其中可以创建时间戳并多次查询,但我无法完全理解其中的内容。有人能解释一下吗?谢谢 我目前的目标是: dh = reddit.redditor(USERNAME) count = 0 for c in dh.comments.new(limit = None): print c.subreddit 这将始终给我count=1000…Re

我目前正在使用Praw/Python清理用户过去对Reddit的评论,我希望在查询时超越上限(1k)

我读过一些关于Cloudsearch语法的文章,其中可以创建时间戳并多次查询,但我无法完全理解其中的内容。有人能解释一下吗?谢谢

我目前的目标是:

dh = reddit.redditor(USERNAME)
count = 0
for c in dh.comments.new(limit = None):
      print c.subreddit

这将始终给我count=1000…

Reddit的列表页面,与您在浏览子Reddit或用户页面时看到的页面相同,都以1000个项目为上限。当添加或更新适用于给定列表的新项目(例如投票)时,会将其插入该列表中的正确位置,删除任何超过1000个项目限制的项目

Reddit的搜索是不同的。虽然每个单独的搜索本身都有类似的1000项限制,但时间戳可用于缩小搜索结果的范围。通过首先对最新的结果进行排序,并跟踪最旧结果的时间戳,可以成功地循环进行连续搜索

PRAW的
提交文件
正是这样做的:

注意:搜索仅适用于提交的内容