Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/loops/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Mysql 计算不同值的出现次数_Mysql_Loops_Csv_Count - Fatal编程技术网

Mysql 计算不同值的出现次数

Mysql 计算不同值的出现次数,mysql,loops,csv,count,Mysql,Loops,Csv,Count,我有几个csv文件,下面的代码用于计算加载了第一个csv文件的表中不同值的出现次数。所有csv文件只有一列名为“数字” 我需要重写这段代码,以便用其他csv文件中的值更新第一个csv文件中的结果 最后,过程将是: 1) 加载带有第一个csv文件的表 2) 计算不同值的出现次数,并用10个最常见的数字保存csv文件 3) 用第二个csv文件加载新表 4) 重新计算不同值的出现次数,并用10个最常见的数字保存一个新的csv文件 5) 重复此过程直到最后一个csv文件 为了使这个过程更快,我想避免每次

我有几个csv文件,下面的代码用于计算加载了第一个csv文件的表中不同值的出现次数。所有csv文件只有一列名为“数字”

我需要重写这段代码,以便用其他csv文件中的值更新第一个csv文件中的结果

最后,过程将是:

1) 加载带有第一个csv文件的表

2) 计算不同值的出现次数,并用10个最常见的数字保存csv文件

3) 用第二个csv文件加载新表

4) 重新计算不同值的出现次数,并用10个最常见的数字保存一个新的csv文件

5) 重复此过程直到最后一个csv文件

为了使这个过程更快,我想避免每次加载新的csv文件时都必须用第一个文件开始计数过程。例如:加载最后一个csv文件时,从第一个文件开始计算所有数据需要很长时间

如果从停止的位置恢复计数过程,速度会更快


谢谢。

为什么每次加载新的csv文件时,您都需要“用第一个文件启动计数过程”?如果每次不使用新表,则只需加载每个文件一次?加载第一个csv文件(包含10.000行)时,计数过程将使用这10.000个数字。加载第二个csv文件时,该表将有26.000行,计数过程将使用这些36.000行。因此,每次加载csv文件时,表中的行数都会增加,计数过程将从第一行(从第一个csv文件加载)开始分析表中存在的所有行。我试图找到一种方法,使计数过程不总是从第一行(第一个csv文件)开始,选择计数而不限制每个单独的表。然后加载所有sums文件,汇总,限制和保存。我开始不理解你的要求。如果您不希望在对file2进行计数时包含file1的编号,则可以截断加载file1的表(快速删除所有行)。如果确实希望文件1中的数字计入文件2的输出,则不要将其从表中删除。始终使用同一个表,但根据输出中所需的内容进行删除/不删除。每个文件只读取一次,计数过程将分析表中的所有行。加载第一个csv文件时,该表将有10.000行。第二个csv文件将表格增加到36.000行。我正在尝试编写一个代码,获取10.000行的结果,并添加26.000行的结果。分析26000行比分析36000行更快。
LOAD DATA INFILE 'path/to/file.csv' 
INTO TABLE table_1
FIELDS TERMINATED BY ',' 
LINES TERMINATED BY '\n';

SELECT numbers, COUNT(1) as count 
FROM table_1 
GROUP BY numbers 
ORDER BY count DESC
LIMIT 10
INTO OUTFILE 'path/to/file_with_results_1.csv'
FIELDS TERMINATED BY ','
LINES TERMINATED BY '\n';