Warning: file_get_contents(/data/phpspider/zhask/data//catemap/0/iphone/43.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Cloudant/CouchDB";拉;复制600+;将文档发送到iPhone_Iphone_Couchdb_Cloudant_Couchcocoa - Fatal编程技术网

Cloudant/CouchDB";拉;复制600+;将文档发送到iPhone

Cloudant/CouchDB";拉;复制600+;将文档发送到iPhone,iphone,couchdb,cloudant,couchcocoa,Iphone,Couchdb,Cloudant,Couchcocoa,我正在使用Cloudant,我正在努力将600个文档从服务器拉/复制到我的iPhone上。首先,它非常慢,因为它必须一次一个文档,第二个Cloudant在第100个左右的REST请求之后给了我“超时”。(我有一张Cloudant的这张票,因为这是不可接受的!) 我想知道是否有人找到了一种方法/黑客在拉取时“批量”复制。我在想,也许可以“压缩”所有更改,将它们发送到一个文件中,然后将iPhone数据库快进到最后一个更改序列 任何帮助都很好——谢谢 你能不能不点击_all_docs?include_

我正在使用Cloudant,我正在努力将600个文档从服务器拉/复制到我的iPhone上。首先,它非常慢,因为它必须一次一个文档,第二个Cloudant在第100个左右的REST请求之后给了我“超时”。(我有一张Cloudant的这张票,因为这是不可接受的!)

我想知道是否有人找到了一种方法/黑客在拉取时“批量”复制。我在想,也许可以“压缩”所有更改,将它们发送到一个文件中,然后将iPhone数据库快进到最后一个更改序列


任何帮助都很好——谢谢

你能不能不点击_all_docs?include_docs=true,一次完成所有内容


我不知道Couchcocoa,但看起来API支持这一点:

实际上,为什么不创建一个视图呢。创建一个视图,提供您的列表,并确保您的id在那里。有了您的id,您就可以转到文档并获取所需的所有其他信息,以便在需要时进行更新

您真的没有理由需要单独访问每个文档。他们有自己的观点,并为此搜索2.0。请记住,您正在使用基于云的技术。这些东西不是放在你的地下室里的,你不能在几秒钟内每台设备点击一百万次,然后期望任何人都不会注意到和/或感到不安(夸张,是的,我知道)


我不明白的是,你想把它复制到iPhone上?你在应用程序中运行apache和couchdb吗?为什么不直接读取JSON数据并将其放入数据库中呢。或者,如果它更新那么多并不断覆盖它,就把它扔到一个文件中。有这么多的选择,这是一个非常少混乱

我可以做所有的文档,但我仍然需要找出最后的顺序并手动更新它。。。正确的?我认为这不是一个最好的解决方案,因为需要进行多次拉式复制(例如,如果我第一次检索所有文档,第二次只有2个新文档,但我仍然可以全部获取…)感谢您的输入,我仍在学习coach及其工作原理:)抱歉,我很困惑,您是要复制整个数据库还是只复制一些文档?因为如果只是一些,你可以使用“doc_id”:[“1”,“2”…],如果是整个数据库,那么你可以复制整个数据库,不是吗?