Unix 如何使用md5sum cmmand查找uniq文件?

Unix 如何使用md5sum cmmand查找uniq文件?,unix,Unix,我使用Md5sum命令,以二进制格式获取文件内容 我希望结果在文件中没有相同的可用内容 比如说 $ md5sum file1 file2 file3 file4 c8675a129a538248bf9b0f8104c8e817 file1 9d3df2c17bfa06c6558cfc9d2f72aa91 file2 9d3df2c17bfa06c6558cfc9d2f72aa91 file3 2e7261df11a2fcefee4674fc500aeb7f file4

我使用Md5sum命令,以二进制格式获取文件内容 我希望结果在文件中没有相同的可用内容 比如说

 $ md5sum file1 file2 file3 file4

  c8675a129a538248bf9b0f8104c8e817  file1
  9d3df2c17bfa06c6558cfc9d2f72aa91  file2
  9d3df2c17bfa06c6558cfc9d2f72aa91  file3
  2e7261df11a2fcefee4674fc500aeb7f  file4
我希望输出在文件中不匹配,这意味着 我需要文件1和文件2

  c8675a129a538248bf9b0f8104c8e817  file1
  2e7261df11a2fcefee4674fc500aeb7f  file4
该文件中的内容与我只需要的另一个文件中的内容不同


提前感谢

试试这个:BASH

find -type f -exec md5sum '{}' ';' | sort | uniq --all-repeated=separate -w 33 | cut -c 35-
说明:

查找所有文件,计算其MD5SUM,通过比较MD5SUM查找重复文件,打印名称


阅读更多内容

试试这个:BASH

find -type f -exec md5sum '{}' ';' | sort | uniq --all-repeated=separate -w 33 | cut -c 35-
说明:

查找所有文件,计算其MD5SUM,通过比较MD5SUM查找重复文件,打印名称


阅读更多内容

试试这个:BASH

find -type f -exec md5sum '{}' ';' | sort | uniq --all-repeated=separate -w 33 | cut -c 35-
说明:

查找所有文件,计算其MD5SUM,通过比较MD5SUM查找重复文件,打印名称


阅读更多内容

试试这个:BASH

find -type f -exec md5sum '{}' ';' | sort | uniq --all-repeated=separate -w 33 | cut -c 35-
说明:

查找所有文件,计算其MD5SUM,通过比较MD5SUM查找重复文件,打印名称

阅读更多

你可以说:

md5sum file1 file2 file3 file4 | uniq -u -w33
以获取唯一的文件

引用man uniq:

   -u, --unique
          only print unique lines

编辑:你似乎在寻找替代品。试一试

md5sum ... | sed ':a;$bb;N;/^\(.\).*\n\1[^\n]*$/ba;:b;s/^\(.\).*\n\1[^\n]*\n*//;ta;/./P;D'
你可以说:

md5sum file1 file2 file3 file4 | uniq -u -w33
以获取唯一的文件

引用man uniq:

   -u, --unique
          only print unique lines

编辑:你似乎在寻找替代品。试一试

md5sum ... | sed ':a;$bb;N;/^\(.\).*\n\1[^\n]*$/ba;:b;s/^\(.\).*\n\1[^\n]*\n*//;ta;/./P;D'
你可以说:

md5sum file1 file2 file3 file4 | uniq -u -w33
以获取唯一的文件

引用man uniq:

   -u, --unique
          only print unique lines

编辑:你似乎在寻找替代品。试一试

md5sum ... | sed ':a;$bb;N;/^\(.\).*\n\1[^\n]*$/ba;:b;s/^\(.\).*\n\1[^\n]*\n*//;ta;/./P;D'
你可以说:

md5sum file1 file2 file3 file4 | uniq -u -w33
以获取唯一的文件

引用man uniq:

   -u, --unique
          only print unique lines

编辑:你似乎在寻找替代品。试一试

md5sum ... | sed ':a;$bb;N;/^\(.\).*\n\1[^\n]*$/ba;:b;s/^\(.\).*\n\1[^\n]*\n*//;ta;/./P;D'


你到底想解决什么问题?找到重复的文件?@Jens文件内容必须只包含一个文件。@etc\u passwd我发布了一个答案,假设您希望找到重复的文件。如果没有,请清楚地张贴输入、预期输出和逻辑。您实际想要解决什么问题?找到重复的文件?@Jens文件内容必须只包含一个文件。@etc\u passwd我发布了一个答案,假设您希望找到重复的文件。如果没有,请清楚地张贴输入、预期输出和逻辑。您实际想要解决什么问题?找到重复的文件?@Jens文件内容必须只包含一个文件。@etc\u passwd我发布了一个答案,假设您希望找到重复的文件。如果没有,请清楚地张贴输入、预期输出和逻辑。您实际想要解决什么问题?找到重复的文件?@Jens文件内容必须只包含一个文件。@etc\u passwd我发布了一个答案,假设您希望找到重复的文件。如果没有,请将输入和预期输出以及逻辑清楚地张贴出来。我使用了该格式,我想要相反的是uniq文件。我使用了该格式,我想要相反的是uniq文件。我使用了该格式,我想要相反的是uniq文件。我使用了该格式,我想要相反的是uniq文件。谢谢,任何其他way@etc_passwd那么,您是否在寻找可能不那么简单的替代方法?是否有其他简单或复杂的方法。@etc\u passwd添加了一个替代方法。享受吧!谢谢,还有别的吗way@etc_passwd那么,您是否在寻找可能不那么简单的替代方法?是否有其他简单或复杂的方法。@etc\u passwd添加了一个替代方法。享受吧!谢谢,还有别的吗way@etc_passwd那么,您是否在寻找可能不那么简单的替代方法?是否有其他简单或复杂的方法。@etc\u passwd添加了一个替代方法。享受吧!谢谢,还有别的吗way@etc_passwd那么,您是否在寻找可能不那么简单的替代方法?是否有其他简单或复杂的方法。@etc\u passwd添加了一个替代方法。享受吧!