Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/algorithm/11.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Algorithm IPFS中的哈希冲突/限制:可能吗?_Algorithm_Hash_Sha_Ipfs - Fatal编程技术网

Algorithm IPFS中的哈希冲突/限制:可能吗?

Algorithm IPFS中的哈希冲突/限制:可能吗?,algorithm,hash,sha,ipfs,Algorithm,Hash,Sha,Ipfs,假设IPFS成为了我们今天理解的互联网的一种演变,整个模型(主要是它们存储的网站和文件)迁移到尽可能分散的位置 我不确定IPFS如何在引擎盖下工作的整个过程,但我知道文件将主要基于它们的散列进行存储 是否有可能,由于全球IPFS模型可以存储的文件数量(因此将生成相同数量的散列),像SHA-2这样的算法会对其可以生成的唯一散列数量达到限制(知道2^256,这相当大)?您必须为大约2^128个不同的文件生成哈希,以便在256位哈希中偶然发现一个冲突 这个数字远大于宇宙中原子的数量,因此发生这种情况的

假设IPFS成为了我们今天理解的互联网的一种演变,整个模型(主要是它们存储的网站和文件)迁移到尽可能分散的位置

我不确定IPFS如何在引擎盖下工作的整个过程,但我知道文件将主要基于它们的散列进行存储


是否有可能,由于全球IPFS模型可以存储的文件数量(因此将生成相同数量的散列),像SHA-2这样的算法会对其可以生成的唯一散列数量达到限制(知道2^256,这相当大)?

您必须为大约2^128个不同的文件生成哈希,以便在256位哈希中偶然发现一个冲突

这个数字远大于宇宙中原子的数量,因此发生这种情况的概率非常小


更可能的是,最终会在哈希函数中发现一些问题,允许有人故意创建冲突。

这是否意味着,无论我是否从本地计算机中创建的文件生成SHA-2,该哈希都是全球唯一的,没有人会用另一个本地文件和不同的文件生成相同的散列?事实上,是的