Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sql-server/27.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
需要将一个150GB的SQL Server表导出到多个管道分隔的平面文件中_Sql_Sql Server_Export_Bcp - Fatal编程技术网

需要将一个150GB的SQL Server表导出到多个管道分隔的平面文件中

需要将一个150GB的SQL Server表导出到多个管道分隔的平面文件中,sql,sql-server,export,bcp,Sql,Sql Server,Export,Bcp,需要将一个150GB大小的SQL Server表导出到多个以管道分隔的平面文件中 该表只有两列,PK uniqueidentifier not null和text null 正在执行set rowcount BCP queryout,其中uniqueidentifier大于,但正在更新表,并且主键顺序发生更改,并且没有ID 只是想寻找一种快速转储这个大表的方法,这样他们就可以通过SQL Loader导入到Oracle 不,出于各种原因,我们不想使用SSI鉴于行数相对可控,我建议首先将您的Uniq

需要将一个150GB大小的SQL Server表导出到多个以管道分隔的平面文件中

该表只有两列,PK uniqueidentifier not null和text null

正在执行set rowcount BCP queryout,其中uniqueidentifier大于,但正在更新表,并且主键顺序发生更改,并且没有ID

只是想寻找一种快速转储这个大表的方法,这样他们就可以通过SQL Loader导入到Oracle


不,出于各种原因,我们不想使用SSI

鉴于行数相对可控,我建议首先将您的UniqueIdentifier写入一个临时表,并使用类似于以下的select命令分配一个行号列:

SELECT ROW_NUMBER() OVER(ORDER BY uniqueidentifier ASC) AS RowNumber, uniqueidentifier 
FROM table

然后,您可以将临时表连接回实际数据,并为bcp批处理筛选一系列行号。

是因为文本列或因为行数而产生的大小?700000行,唯一ID是GUID,文本是XML数据,SSI经验有限,SSI在GUID周围放括号,bcp没有,我可以将BCP管道分隔的文件导出到多个文件,其中GUID>大于,但GUID顺序会更改,并且我需要相同的脚本用于测试和生产,我担心这样做可能会丢失或复制一行