Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/sorting/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Sorting 需要使用AWK/sort/uniq从简单文本文件中删除第一列中具有相同值的行的提示帮助吗_Sorting_Awk_Uniq - Fatal编程技术网

Sorting 需要使用AWK/sort/uniq从简单文本文件中删除第一列中具有相同值的行的提示帮助吗

Sorting 需要使用AWK/sort/uniq从简单文本文件中删除第一列中具有相同值的行的提示帮助吗,sorting,awk,uniq,Sorting,Awk,Uniq,我有一组文本文件,在第1列和第2列中包含以下内容(用空格分隔): 地址0数据0 地址1数据1 地址数据 所有数据值都是唯一的(随机的),但有些地址值是重复的。如何使用AWK/sort/uniq删除已指定地址的行 基本上,无论关联的数据是什么,文本文件中都不应该有重复的地址。sort-k1您的_文件| awk'{if($1!=last_address_seen){print$0;last_address_seen=$1}}' awk ' $1 in seen {next} {

我有一组文本文件,在第1列和第2列中包含以下内容(用空格分隔):

地址0数据0

地址1数据1

地址数据

所有数据值都是唯一的(随机的),但有些地址值是重复的。如何使用AWK/sort/uniq删除已指定地址的行


基本上,无论关联的数据是什么,文本文件中都不应该有重复的地址。

sort-k1您的_文件| awk'{if($1!=last_address_seen){print$0;last_address_seen=$1}}'

awk '
    $1 in seen {next}
    {print; seen[$1] = 1}
' file ...

大多数unix排序命令将支持-u选项,该选项将仅保持所有键上比较相等的两行中的第一行。

它最终输出0行:-(当我使用gawk时,这实际上起了作用。我想这是cygwin的问题。非常感谢!它的优点是保留了文件中行的原始顺序。
sort -k1 -u your_file > outputfile