Warning: file_get_contents(/data/phpspider/zhask/data//catemap/7/sql-server/22.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Perl DBI-加载到SQL Server L_Sql_Sql Server_Perl_Load_Dbi - Fatal编程技术网

Perl DBI-加载到SQL Server L

Perl DBI-加载到SQL Server L,sql,sql-server,perl,load,dbi,Sql,Sql Server,Perl,Load,Dbi,我必须每天将一个文本文件加载到一个大约50MB大小的数据库中。我使用Perl DBI将使用insert语句的文件加载到SQL Server中。它的性能不是很好,我想知道是否有更好/更快的方法将DBI加载到SQL Server。您可能应该使用该语句。没有理由不能从DBI运行该语句。您可能应该使用该语句。没有理由不能从DBI运行该操作。在执行大型插入/更新操作时,禁用目标表上的任何索引、进行更改并重新启用索引通常很有用。这样,索引只需重建一次,而不是在每次INSERT/UPDATE语句运行后重建索引

我必须每天将一个文本文件加载到一个大约50MB大小的数据库中。我使用Perl DBI将使用insert语句的文件加载到SQL Server中。它的性能不是很好,我想知道是否有更好/更快的方法将DBI加载到SQL Server。

您可能应该使用该语句。没有理由不能从DBI运行该语句。

您可能应该使用该语句。没有理由不能从DBI运行该操作。

在执行大型
插入
/
更新
操作时,禁用目标表上的任何索引、进行更改并重新启用索引通常很有用。这样,索引只需重建一次,而不是在每次
INSERT
/
UPDATE
语句运行后重建索引


(这也可以以零停机时间的方式应用,方法是将原始表复制到未索引的临时表,在临时表上执行操作,添加索引,删除原始表,并重命名临时表以替换它。)

在执行大型
插入
/
更新
操作时,禁用目标表上的任何索引、进行更改并重新启用索引通常很有用。这样,索引只需重建一次,而不是在每次
INSERT
/
UPDATE
语句运行后重建索引


(这也可以以零停机时间的方式应用,方法是将原始表复制到未索引的临时表,在临时表上执行操作,添加索引,删除原始表,然后重命名临时表以替换它。)

另一种加速方法(如果尚未完成)是使用。

另一种加速方法(如果尚未完成)是要使用的。

您没有说文件是如何处理的,但SQL Server有一个不错的ETL工具-我想他们现在称之为集成服务。您没有说文件是如何处理的,但SQL Server有一个不错的ETL工具-我想他们现在称之为集成服务。