如何在将大型表导入Sqlite时避免磁盘节流?

如何在将大型表导入Sqlite时避免磁盘节流?,sql,sqlite,Sql,Sqlite,我有10个左右的TSV格式的表,范围从20-60GB。我可以通过运行以下命令来导入它们: create table mytable(mykey TEXT PRIMARY KEY, valuea INTEGER, valueb REAL); .separator "\t" .import data_01.tsv mytable 它可以在其中一个TSV上进行测试,但由于IO的原因,它使整个系统陷于停顿 我如何避免这种情况 一些注意事项: 没有管理员权限 大量内存(256 GB) 将文件拆分成更小

我有10个左右的TSV格式的表,范围从20-60GB。我可以通过运行以下命令来导入它们:

create table mytable(mykey TEXT PRIMARY KEY, valuea INTEGER, valueb REAL);
.separator "\t"
.import data_01.tsv mytable
它可以在其中一个TSV上进行测试,但由于IO的原因,它使整个系统陷于停顿

我如何避免这种情况

一些注意事项:

  • 没有管理员权限

  • 大量内存(256 GB)


将文件拆分成更小的文件?@Shawn我不认为这会有什么帮助,我仍然需要导入所有文件?是的,将文件拆分成更小的文件块,随着时间的推移分散开来。