Warning: file_get_contents(/data/phpspider/zhask/data//catemap/6/eclipse/8.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
将大型数据集导入Firebase Firestore_Firebase_Firebase Realtime Database_Google Cloud Firestore - Fatal编程技术网

将大型数据集导入Firebase Firestore

将大型数据集导入Firebase Firestore,firebase,firebase-realtime-database,google-cloud-firestore,Firebase,Firebase Realtime Database,Google Cloud Firestore,我正在使用Direbase实时数据库为我的移动应用程序存储大量公共交通信息 上周,我尝试将所有内容都转移到Firestore,这对我的数据库结构有很大帮助,多亏了他的查询系统 与实时数据库不同,我无法从JSON文件导入数据,这迫使我使用批写入操作来保存初始的大块数据 通过这种方式,我在几秒钟内超过了配额限制,是否有办法避免配额限制以导入项目的初始数据? 例如,在实时数据库中,我可以直接从Firebase面板导入大量数据,并从我的pc上传json文件。目前还没有专门将数据批量导入Cloud Fir

我正在使用Direbase实时数据库为我的移动应用程序存储大量公共交通信息

上周,我尝试将所有内容都转移到Firestore,这对我的数据库结构有很大帮助,多亏了他的查询系统

与实时数据库不同,我无法从JSON文件导入数据,这迫使我使用批写入操作来保存初始的大块数据

通过这种方式,我在几秒钟内超过了配额限制,是否有办法避免配额限制以导入项目的初始数据?


例如,在实时数据库中,我可以直接从Firebase面板导入大量数据,并从我的pc上传json文件。

目前还没有专门将数据批量导入Cloud Firestore的方法。这意味着您必须使用常规API来导入数据。不幸的是,这意味着目前无法绕过配额限制来导入数据集。

我导入了数百万条记录,这是非常昂贵的,我们可能会在将来更改解决方案。我们非常希望有一些服务器API可以在短时间内导入数百万条记录,并将其作为批量操作来执行,这将非常重要这听起来像是一个伟大的故事。@FrankvanPuffelen我认为这是错误的?是否可以批量设置新文档?请至少通过iOS SDK查看批处理集到目前为止无法可靠工作。当我批量设置大约300个小文档时,SDK已经占用了超过1GB的RAM。如果我使用500的官方限制,应用程序会因为内存压力而崩溃。Firebase支持部门对此表示认可。也许通过云功能更好,但我还没有尝试过。