Caching 您如何使RSS提要条目的可用时间比它们长';是否可以从源代码处访问?

Caching 您如何使RSS提要条目的可用时间比它们长';是否可以从源代码处访问?,caching,rss,offline,podcast,Caching,Rss,Offline,Podcast,我在家里的电脑被设置成自动从RSS提要(主要是torrents和Podcast)下载一些东西。然而,我并不总是开着这台电脑。我订阅的站点有相对较大的吞吐量,因此当我重新打开计算机时,它不知道从关闭到最新更新之间它错过了什么 如何将提要条目的存储时间延长到实际站点上可用的时间? 我查看了Yahoo的pipes,发现没有这样的功能,Google reader可以做到,但它需要对每个项目进行手动标记。Magpie RSS for php可以进行缓存,但这只是为了避免检索过多的提要,而不是真正存储更多的

我在家里的电脑被设置成自动从RSS提要(主要是torrents和Podcast)下载一些东西。然而,我并不总是开着这台电脑。我订阅的站点有相对较大的吞吐量,因此当我重新打开计算机时,它不知道从关闭到最新更新之间它错过了什么

如何将提要条目的存储时间延长到实际站点上可用的时间?

我查看了Yahoo的pipes,发现没有这样的功能,Google reader可以做到,但它需要对每个项目进行手动标记。Magpie RSS for php可以进行缓存,但这只是为了避免检索过多的提要,而不是真正存储更多的条目

我可以访问一个全天候运行的web服务器(LAMP),因此使用php/mysql的解决方案将是非常好的,任何现有的web服务也将是非常好的

我可以编写自己的代码来实现这一点,但我确信这一定是以前有人遇到的问题

我所做的: 我不知道你可以使用谷歌阅读器共享整个标签,多亏迈克·威尔斯指出了这一点。
一旦我知道我可以做到这一点,只需将提要添加到一个单独的Google帐户(而不是阻塞我的个人阅读列表),我还使用Yahoo pipes进行了一些选择性匹配,以获得我感兴趣的特定条目,这也可以最大限度地降低遗漏任何内容的风险。

听起来您需要某种服务,每X分钟检查一次RSS源,这样您就可以在“观看”源的同时下载发布到源中的每一篇文章/项目,而不是在查看源时只看到源上显示的项目。我说的对吗

您是否可以在Web服务器上使用cron或其他类型的作业调度,而不是提供一个完整的软件解决方案来读取提要并下载其内容


否则,听起来你将很快重新编写一个像Google Reader这样的全面服务。

听起来你想做什么就做什么。不确定标记单个项目是什么意思——你必须使用任何RSS聚合器来标记这些项目。

使用好的RSS库编写聚合器以保存更长的历史应该不会太难。

我使用Google Reader订阅我的podiobooks.com。我将所有提要添加到我共享的标记(在本例中为podiobooks.com)中(但不共享URL)。然后我将RSS提要添加到iTunes

Google reader不会向公众提供你的任何订阅源,除了你的共享项目,这就是我所说的“标记”。但我也许能想出一种方法,从一个脚本登录到谷歌阅读器……订阅源是由“常规”程序(如uTorrent)读取的,所以我希望它对他们是透明的。我所追求的是这个“全面”的解决方案,而是它的一个精简版,只是存储所有新条目并使它们在更长的时间内可用。不,我肯定不会,我只是认为一定有人以前做过,并希望代码可用,从而省去我的麻烦。首先:这是一个编程网站。这样做其实非常简单,而且与现有解决方案相比,它提供了一些灵活性。第二:谷歌有其他选择真是太好了。我真该死,我不知道我可以分享整个标签。我一定会调查的!