Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sqlite/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
ios:大量数据库记录-可能吗?_Ios_Sqlite - Fatal编程技术网

ios:大量数据库记录-可能吗?

ios:大量数据库记录-可能吗?,ios,sqlite,Ios,Sqlite,我可能需要使用Swift处理大量本地存储在iPad上的数据库记录。我还没有选择数据库(但可能是sqlite,除非建议指向其他数据库)。这些记录可能多达70万份,需要通过合计总数、计算百分比等方式进行处理 在处理能力有限的iPad上,这可能吗?是否存在软件存储限制?iPad能处理如此大量的数据吗 另一种选择可能是将数据分割成更小的数据块或大约30000条记录,然后处理这些数据。即使这样,我也不确定这是否是一个实际的尝试 关于如何或是否实现这一点以及可能应用的限制,有什么建议吗?请允许我为SQLit

我可能需要使用Swift处理大量本地存储在iPad上的数据库记录。我还没有选择数据库(但可能是sqlite,除非建议指向其他数据库)。这些记录可能多达70万份,需要通过合计总数、计算百分比等方式进行处理

在处理能力有限的iPad上,这可能吗?是否存在软件存储限制?iPad能处理如此大量的数据吗

另一种选择可能是将数据分割成更小的数据块或大约30000条记录,然后处理这些数据。即使这样,我也不确定这是否是一个实际的尝试


关于如何或是否实现这一点以及可能应用的限制,有什么建议吗?

请允许我为SQLite提供一个插件:它是一个用C编写的超级精简/轻量级SQL引擎,有数百万个单元测试支持它(在撰写本文时可能会更多)。这是闪电般的速度,而且越来越快,因为他和他的同事一次突破了百分之几的极限。这是它的发明者理查德·希普博士的作品

综上所述,SQLite很难出错

关于您的数据的绝对大小。。。虽然它看起来“很多”,但对于现代iOS硬件来说,它实际上可能非常微不足道。然而,如果这700000条记录中的每一条记录都有10s或100s的MBs,那么这可能是危险的。任何存储框架都无法缓解硬件上的空间不足问题。这更多的是硬件限制+数据量问题

如果您正在寻找SQLite的iOS集成解决方案,可以尝试使用my library。在LabQLite库代码中有几个高级、中级和低级方法/API调用。你一定会找到有用的东西。您还可以使用生成要在Xcode项目中使用的模型类

就达到您描述的基准而言: 您可以在各种iOS设备上进行一些引导/性能测试。MacRumors.com会随着新的iOS硬件的推出而不时这样做。这确实是确保获得所需性能结果的唯一准确方法


如果您想了解有关SQLite总体性能的详细信息,可以从中选择和提供一系列服务。

试试看。只有在检测到实际问题时才担心优化。我会尝试CoreData,针对高数据流量进行优化是的,尝试一下CoreData。我用它处理了几十万件物品和数百万条关系。那是5年前的事了,它运行得很好。这给了我一些希望,我会看看,谢谢。还需要自动将非常大的csv文件放入关系型sqlite数据库,可能是通过mssql。欢迎提供任何建议。将产生另一个问题。