Warning: file_get_contents(/data/phpspider/zhask/data//catemap/5/sql/77.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql 大容量插入不会导入每一行_Sql_Sql Server 2008_Bulkinsert - Fatal编程技术网

Sql 大容量插入不会导入每一行

Sql 大容量插入不会导入每一行,sql,sql-server-2008,bulkinsert,Sql,Sql Server 2008,Bulkinsert,我有一个CSV文件,有1048576行。我必须将数据导入我的SQL Server表。我使用批量插入导入;执行该查询后,SQL显示1048576行受到影响,但在我的表中,只填充99999行。其他行消失,没有剩余值。为什么?我的代码如下 BULK INSERT dbo.TT32CU FROM 'C:\CZGTECH\DATABASE\ttcu.CSV' WITH ( FIELDTERMINATOR = ',', ROWTERMINATOR = '\n' ) GO 表上的COUNT1是否也会导致99

我有一个CSV文件,有1048576行。我必须将数据导入我的SQL Server表。我使用批量插入导入;执行该查询后,SQL显示1048576行受到影响,但在我的表中,只填充99999行。其他行消失,没有剩余值。为什么?我的代码如下

BULK INSERT dbo.TT32CU
FROM 'C:\CZGTECH\DATABASE\ttcu.CSV'
WITH
(
FIELDTERMINATOR = ',',
ROWTERMINATOR = '\n'
)
GO

表上的COUNT1是否也会导致999999?奇怪,我无法解释您是否可以建议将excl.csv导入dB表中的任何方法?当使用COUNT1 2097156时,消息为no column name@honeybackerno column name是正确的,除非您提供别名select COUNT1 cnt,例如。您是否尝试过两次批量插入?因为2097156是.csv中记录数的两倍。如果是这样,大容量插入可能工作正常,但可能会限制records management studio显示的记录数。