Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/csharp/295.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
C# 与单个存储过程相比,单独SQL命令的性能_C#_Sql_Sql Server_Performance_Stored Procedures - Fatal编程技术网

C# 与单个存储过程相比,单独SQL命令的性能

C# 与单个存储过程相比,单独SQL命令的性能,c#,sql,sql-server,performance,stored-procedures,C#,Sql,Sql Server,Performance,Stored Procedures,我继承了一些与GP接口的代码。在调试问题之前查看代码时,我发现一个函数可以撤消对一组表的更新 这段代码包含许多SQL命令,我想知道使用一个输入参数(表ds)的单个存储过程是否比单独在表的每一行上运行所有这些命令能获得更好的性能 private void revertSave() { try { SqlConnection conn = GetConnectionToGP(); if (conn !=

我继承了一些与GP接口的代码。在调试问题之前查看代码时,我发现一个函数可以撤消对一组表的更新

这段代码包含许多SQL命令,我想知道使用一个输入参数(表ds)的单个存储过程是否比单独在表的每一行上运行所有这些命令能获得更好的性能

    private void revertSave()
    {
        try
        {
            SqlConnection conn = GetConnectionToGP();
            if (conn != null)
            {
                using (SqlCommand cmd = new SqlCommand())
                {
                    //records from InventoryTransaction Master, Detail, and Serial tables when window is opened.
                    foreach (DataRow dr in _ds.Tables[0].Rows)
                    {
                        cmd.Connection = conn;
                        //TRANSACTION tables
                        cmd.CommandText = "UPDATE InventoryTransaction_Master " +
                            "SET Completed = 0 WHERE DocumentNumber = " + SqlString(dr["DocumentNumber"].ToString().Trim());
                        cmd.ExecuteNonQuery();

                        cmd.CommandText = "UPDATE InventoryTransaction_Serial " +
                            "SET BIN = '' " +
                            "WHERE DocumentNumber = " + SqlString(dr["DocumentNumber"].ToString().Trim()) +
                            " and DocumentType = 1 and ItemNumber = " + SqlString(dr["PrefixedItemNumber"].ToString().Trim()) +
                            " and LineSequenceNumber = " + SqlString(dr["LineSequenceNumber"].ToString().Trim()) +
                            " and SerialNumber = " + SqlString(dr["SerialNumber"].ToString().Trim());
                        cmd.ExecuteNonQuery();

                        //TRANSFER tables
                        cmd.CommandText = "SELECT DISTINCT detail.DocumentNumber " +
                            "FROM  InventoryTransfer_Detail detail " +
                            "INNER JOIN InventoryTransfer_Serial serial ON detail.DocumentNumber = serial.DocumentNumber " +
                            "and detail.ItemNumber = serial.ItemNumber " +
                            "and detail.LineSequenceNumber = serial.LineSequenceNumber " +
                            "WHERE SessionID = " + SqlString(dr["SessionID"].ToString().Trim()) +
                            " and SerialNumber = " + SqlString(dr["SerialNumber"].ToString().Trim());
                        object obj = cmd.ExecuteScalar();
                        if (obj != null)
                        {
                            cmd.CommandText = "UPDATE InventoryTransfer_Master " +
                                "SET Completed = 0 WHERE DocumentNumber = " + SqlString(obj.ToString());
                            cmd.ExecuteNonQuery();

                            cmd.CommandText = "UPDATE InventoryTransfer_Serial " +
                                "SET OriginalBin = '', NewBin = '' " +
                                "WHERE DocumentNumber = " + SqlString(obj.ToString()) + " and SerialNumber = " + SqlString(dr["SerialNumber"].ToString().Trim());
                            cmd.ExecuteNonQuery();
                        }
                    }
                }

                if (conn.State == ConnectionState.Open)
                    conn.Close();
            }

            //this.Close();
        }
        catch (Exception ex)
        {
            ELog el = new ELog(ex, CLASS_NAME + " revertSave");
        }
    }

如果不进行实际测试,很难预测复杂系统的性能,但存储过程很可能会提高执行速度,特别是在数据集很大的情况下

用你目前的方法,你有

  • 每行四个SQL命令。因此,对于1000行,将有4000个命令
  • 4000网络跳数
  • 4000个单行锁实例
  • 4000个SQL编译事件
使用存储过程,理论上可以

  • 总共有三个SQL命令,用于关联获取必要值所需的所有行。虽然这些语句非常复杂(有很多连接),但3远小于4000
  • 一个网络跳
  • 一个事务,包含所有必需的行、页或潜在的表锁
  • 如果存储过程是提前编译的,则根本没有编译事件
使用存储过程后,一切看起来都好得多,但可能会有更大的锁定。根据您的总体解决方案,该锁可能会破坏交易,因为它可能会阻止其他用户同时执行相同操作的其他进程

还有一些可怕的细节——例如,如果表是海量的,并且有许多行没有更新,并且批量更新会触发表扫描而不是索引查找,那么一次更新一行可能比批量更新更有效。但是,一个好的SQL开发人员可以定制SQL查询和命令,以推动SQL Server朝着正确的方向发展


TLDR:在大多数情况下,存储过程会给您带来更好的性能。

如果不实际试用,很难预测复杂系统的性能,但存储过程很可能会提高执行速度,特别是在数据集很大的情况下

用你目前的方法,你有

  • 每行四个SQL命令。因此,对于1000行,将有4000个命令
  • 4000网络跳数
  • 4000个单行锁实例
  • 4000个SQL编译事件
使用存储过程,理论上可以

  • 总共有三个SQL命令,用于关联获取必要值所需的所有行。虽然这些语句非常复杂(有很多连接),但3远小于4000
  • 一个网络跳
  • 一个事务,包含所有必需的行、页或潜在的表锁
  • 如果存储过程是提前编译的,则根本没有编译事件
使用存储过程后,一切看起来都好得多,但可能会有更大的锁定。根据您的总体解决方案,该锁可能会破坏交易,因为它可能会阻止其他用户同时执行相同操作的其他进程

还有一些可怕的细节——例如,如果表是海量的,并且有许多行没有更新,并且批量更新会触发表扫描而不是索引查找,那么一次更新一行可能比批量更新更有效。但是,一个好的SQL开发人员可以定制SQL查询和命令,以推动SQL Server朝着正确的方向发展


TLDR:在大多数情况下,存储过程将为您提供更好的性能。

正如其他人所说,SQL注入和事务是个问题。此代码的其他潜在问题是可维护性(易于键入、查找和调试)。这些问题中的任何一个都可能比性能更重要。看起来它可以做更多的基于行的逻辑而不是基于集的逻辑,这通常是一个性能问题。如果公司习惯于在代码中构建SQL,并且运行的时间对系统或运行它的人员来说并不繁重,那么它可能是最好的地方(撇开SQL注入的威胁不谈)


如果这导致了实际的性能问题,那么应该对其进行优化,而优化的最佳方法是测试。这样运行5分钟吗?当您将其转换为存储过程时,是否需要1分钟?当您删除循环并使其完全基于集合逻辑时,情况如何?

正如其他人所说,SQL注入和事务都是问题。此代码的其他潜在问题是可维护性(易于键入、查找和调试)。这些问题中的任何一个都可能比性能更重要。看起来它可以做更多的基于行的逻辑而不是基于集的逻辑,这通常是一个性能问题。如果公司习惯于在代码中构建SQL,并且运行的时间对系统或运行它的人员来说并不繁重,那么它可能是最好的地方(撇开SQL注入的威胁不谈)


如果这导致了实际的性能问题,那么应该对其进行优化,而优化的最佳方法是测试。这样运行5分钟吗?当您将其转换为存储过程时,是否需要1分钟?当您删除循环并使其完全基于集合逻辑时,情况如何?

代码中最大的问题是SQL注入,但这并不意味着存储过程就是答案。参数是一个单独的主题,“显示的代码”和“存储过程”之间存在错误的二分法;你可以