Warning: file_get_contents(/data/phpspider/zhask/data//catemap/8/file/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
在Java中,从文件列表中删除重复文件_Java_File_Collections_Duplicates - Fatal编程技术网

在Java中,从文件列表中删除重复文件

在Java中,从文件列表中删除重复文件,java,file,collections,duplicates,Java,File,Collections,Duplicates,我有一个java.io.File的列表。我想强制这个列表是唯一的 将它们放在哈希集中是正确的吗?比如: List<File> list = ... List<File> newList = new ArrayList<File>(new HashSet<File>(list)) List=。。。 List newList=newarraylist(新HashSet(List)) 还是有更好的办法 最好设置集合类型,以便任何阅读您的代码的人都能

我有一个
java.io.File
的列表。我想强制这个列表是唯一的

将它们放在哈希集中是正确的吗?比如:

List<File> list = ...

List<File> newList = new ArrayList<File>(new HashSet<File>(list))
List=。。。
List newList=newarraylist(新HashSet(List))

还是有更好的办法

最好设置集合类型,以便任何阅读您的代码的人都能清楚地知道您正在处理一组独特的文件

List<File> list = ...

Set<File> files = new HashSet<File>(list);
List=。。。
设置文件=新哈希集(列表);

它也会快一点。

最好设置集合类型,以便任何阅读您的代码的人都能清楚地知道您正在处理一组独特的文件

List<File> list = ...

Set<File> files = new HashSet<File>(list);
List=。。。
设置文件=新哈希集(列表);

速度也会快一点。

我觉得不错。我会用这样的一套,我觉得不错。我会用那样的一套