Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sql-server/22.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sql 大容量插入导致0行受影响_Sql_Sql Server_Sql Server 2012 - Fatal编程技术网

Sql 大容量插入导致0行受影响

Sql 大容量插入导致0行受影响,sql,sql-server,sql-server-2012,Sql,Sql Server,Sql Server 2012,所以我对批量插入查询有一些问题,我希望这里的人能帮我解决这个问题。以下是我的批量插入: BULK INSERT [DB_Test].[dbo].[1_Import_ATT_tbl_GPSD] FROM '\\IP Address\Folder\CSV_FIle.csv' WITH ( FIRSTROW = 2, FIELDTERMINATOR = ',', --CSV field delimiter ROWTERMINATOR = '/n', TABLOCK ) 我检查了源文件中的行终止

所以我对批量插入查询有一些问题,我希望这里的人能帮我解决这个问题。以下是我的批量插入:

BULK INSERT [DB_Test].[dbo].[1_Import_ATT_tbl_GPSD]
FROM '\\IP Address\Folder\CSV_FIle.csv'
WITH
(
FIRSTROW = 2,
FIELDTERMINATOR = ',',  --CSV field delimiter
ROWTERMINATOR = '/n',  
TABLOCK
)

我检查了源文件中的行终止符,它们以LF结尾,但我尝试了我能想到的每一个行终止符,它们都会导致0行受影响。源文件是一个简单的13列CSV,我似乎无法导入任何内容。有什么我遗漏的吗?我知道这与权限无关,我已经检查过了。有什么想法吗?

行终止符是错误的

应该是:

ROWTERMINATOR = '\n'

\n是新行termination@zedfoxus我犯了愚蠢的错误,但仍然导致0行受影响!将该文件放在运行大容量插入的系统本地。创建一个文件夹,并授予每个人对该文件夹的读取权限。再次尝试大容量插入。如果更改为FIRSTROW=1会怎么样?这是否成功导入了1行?