Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sql-server/25.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql server 为什么对内存优化的非持久表的大容量插入速度与持久表相同?_Sql Server_Memory Optimized Tables - Fatal编程技术网

Sql server 为什么对内存优化的非持久表的大容量插入速度与持久表相同?

Sql server 为什么对内存优化的非持久表的大容量插入速度与持久表相同?,sql-server,memory-optimized-tables,Sql Server,Memory Optimized Tables,在对持久内存优化表和非持久内存优化表运行大容量插入时,两者的速度相同。大容量插入到非持久内存优化表的速度不应该比持久内存优化表快吗?如果是这样,我在这里做错了什么 我的测试如下,持续约30秒。这在SQL Server 2016 SP1上。批量插入是我生成的csv文件中的1000万行 SQL 用户-巨大的.csv Id, Username ,user1 ,user2 ... ,user10000000 原来我有这个问题是因为大容量插入的源文件保存在慢速硬盘上,所以读取文件时出现瓶颈。原来我有这个

在对持久内存优化表和非持久内存优化表运行大容量插入时,两者的速度相同。大容量插入到非持久内存优化表的速度不应该比持久内存优化表快吗?如果是这样,我在这里做错了什么

我的测试如下,持续约30秒。这在SQL Server 2016 SP1上。批量插入是我生成的csv文件中的1000万行

SQL

用户-巨大的.csv

Id, Username
,user1
,user2
...
,user10000000

原来我有这个问题是因为大容量插入的源文件保存在慢速硬盘上,所以读取文件时出现瓶颈。

原来我有这个问题是因为大容量插入的源文件保存在慢速硬盘上,因此,在读取文件时出现了瓶颈。

延迟耐久性设置是什么?如果在数据全部加载之前它没有开始写入磁盘,那么加载肯定需要相同的时间。此外,考虑系统上可能存在的磁盘写高速缓存。还考虑CPU而不是I/O可能是限制性能因素。您延迟的耐久性设置是什么?如果在数据全部加载之前它没有开始写入磁盘,那么加载肯定需要相同的时间。同样,考虑系统上可能存在的磁盘写高速缓存。还考虑CPU而不是I/O可能是限制性能因素。
Id, Username
,user1
,user2
...
,user10000000