Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/asp.net/33.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
C# C语言中的分组值_C#_Asp.net_Group By_Grouping - Fatal编程技术网

C# C语言中的分组值

C# C语言中的分组值,c#,asp.net,group-by,grouping,C#,Asp.net,Group By,Grouping,我必须根据状态将数据表中的所有ITEN分组,我只有包含所有数据量的数据表 DataTable results; using (var sqlDataAccess = new MSQLDataAccess(Util.GetIntegraConnectionString)) { results = sqlDataAccess.GetDataTable(query, parameters); } 结果变量包含以下数据: DBSMP.DTINICIOPREV DBSMP.DTFIMPREV D

我必须根据状态将数据表中的所有ITEN分组,我只有包含所有数据量的数据表

DataTable results;
using (var sqlDataAccess = new MSQLDataAccess(Util.GetIntegraConnectionString))
{
    results = sqlDataAccess.GetDataTable(query, parameters);
}
结果变量包含以下数据:

DBSMP.DTINICIOPREV
DBSMP.DTFIMPREV
DBSMP.CIDADE_DES 
DBSMP.CIDADE_ORI
DBSMP.REF2
WORK.DESCRIPTION <<-- Group here
TRA.FANTASIA
单位=5


那么,哪种方法是将结果转换为多个分组数据列表的最佳方法?

这里的重点是您没有编写的SQL查询。为什么从数据库中检索数据,然后在C中重新排序所有内容时浪费类型?通过将GROUPBY语句添加到查询中,直接获取排序的数据。如果我使用这种方法,我必须对每个状态进行一次选择,以检索包含这些分离数据的大量列表。我以为您只读取了一次数据库中的所有数据,然后想更改存储C结果中所有记录的表。如果必须对数据库进行多个查询,那么这可能不是最好的方法。尽管您可以使用C LINQ中的SQL查询等价物来完成基本相同的工作。这里有一个链接,指向LINQ中的group by->
DTINICIOPREV | DTFIMPREV |CIDADE_DES | CIDADE_ORI | REF2 | FANTASIA 
DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE  
DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE  
DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE  
DTINICIOPREV | DTFIMPREV |CIDADE_DES | CIDADE_ORI | REF2 | FANTASIA 
DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE  
DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE  
DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE 
DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE  
DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE DATA HERE