Python 使用通用提要解析器聚合多个提要
在UniversalFeedParser中使用单源提要解析非常幸运,但现在我需要通过它运行多个提要,并生成按时间顺序交错的输出(而不是RSS)。似乎我需要遍历URL并将每个条目填充到字典列表中,然后根据条目时间戳对其排序,并从顶部切下一块。这似乎是可行的,但在资源方面相当昂贵(出于这个原因,我将大力缓存它)Python 使用通用提要解析器聚合多个提要,python,django,Python,Django,在UniversalFeedParser中使用单源提要解析非常幸运,但现在我需要通过它运行多个提要,并生成按时间顺序交错的输出(而不是RSS)。似乎我需要遍历URL并将每个条目填充到字典列表中,然后根据条目时间戳对其排序,并从顶部切下一块。这似乎是可行的,但在资源方面相当昂贵(出于这个原因,我将大力缓存它) 只是想知道是否有一种更简单的方法——例如,现有的库可以与feedparser一起进行简单的聚合。示例代码?明白还是警告?谢谢。您可以将提要放入数据库,然后从此数据库生成新提要 考虑研究两个基
只是想知道是否有一种更简单的方法——例如,现有的库可以与feedparser一起进行简单的聚合。示例代码?明白还是警告?谢谢。您可以将提要放入数据库,然后从此数据库生成新提要
考虑研究两个基于feedparser的RSS聚合器:和(基于Django),或者至少看看它们是如何解决这个问题的。您可以将提要放入数据库,然后从该数据库生成新的提要
考虑研究两个基于feedparser的RSS聚合器:和(基于Django),或者至少看看它们是如何解决这个问题的。这里已经有了将数据存储在数据库中的建议,例如
bsddb.btopen()
或任何RDBMS
查看
heapq.merge()
和bisect.insort()
,或者如果您想在内存中合并数据,可以使用一个B树实现。这里已经建议将数据存储在数据库中,例如bsddb.btopen()
或任何RDBMS
查看
heapq.merge()
和bisect.insort()
,如果您想在内存中合并数据,可以使用一种B树实现。这是一个很好的建议。这里有一些链接,这是一个很好的建议。这里有一些链接,我实际上已经看过了Planet和FeedJack,但问题是我已经有了需要使用的带有rss_url字段的模型,而这两个模型假设它们是整个站点的基础(即,它们不是非常可插拔)。相反,我使用了djangoproject.com网站本身使用的聚合器:,该聚合器在feedparser周围附带了一个feed_updater.py包装器。这巧妙地解决了问题,还让我对某些类别的站点进行ORM查询,等等。我想知道让FeedJack更易插拔有多难?据说FeedJack允许您查看/下载历史提要。我下载了feedjack并浏览了源代码(在我把它插入我的项目后,我没有让它工作),但我没有找到一个地方可以查看旧的feed是如何被签出的。你能告诉我我遗漏了什么吗?我实际上已经看过Planet和FeedJack,但问题是我已经有了需要处理的带有rss_url字段的模型,而这两个模型假设它们是整个站点的基础(即它们不是很可插拔)。相反,我使用了djangoproject.com网站本身使用的聚合器:,该聚合器在feedparser周围附带了一个feed_updater.py包装器。这巧妙地解决了问题,还让我对某些类别的站点进行ORM查询,等等。我想知道让FeedJack更易插拔有多难?据说FeedJack允许您查看/下载历史提要。我下载了feedjack并浏览了源代码(在我把它插入我的项目后,我没有让它工作),但我没有找到一个地方可以查看旧的feed是如何被签出的。你能告诉我我错过了什么吗?