Deep learning 是否有任何真正的理由将神经网络批量大小设置为2的幂?

Deep learning 是否有任何真正的理由将神经网络批量大小设置为2的幂?,deep-learning,neural-network,Deep Learning,Neural Network,…除了让人们认为你可能学了一些计算机科学课程之外?我经常在网上的小插曲中看到它。批量大小为256或64,或其他任何值 如果我对范围(258)内的批大小进行严格的测试,我是否有任何理由期望在2**n+1处出现可测量的不连续跳跃 我的直觉是,到目前为止,现代软件都是从计算机的内脏中抽象出来的,这些技巧与这些按键对当地地震概率的影响一样重要 但也许我错了?因此,问题就来了。一些人说这会更快,例如,谷歌的简短搜索暗示这不一定是一致的。无论如何,你肯定不是第一个问这个问题的人,所以也许你会通过搜索找到更多

…除了让人们认为你可能学了一些计算机科学课程之外?我经常在网上的小插曲中看到它。批量大小为256或64,或其他任何值

如果我对范围(258)内的批大小进行严格的
测试,我是否有任何理由期望在
2**n+1
处出现可测量的不连续跳跃

我的直觉是,到目前为止,现代软件都是从计算机的内脏中抽象出来的,这些技巧与这些按键对当地地震概率的影响一样重要


但也许我错了?因此,问题就来了。

一些人说这会更快,例如,谷歌的简短搜索暗示这不一定是一致的。无论如何,你肯定不是第一个问这个问题的人,所以也许你会通过搜索找到更多的信息(希望我能说得更多,但我自己对此一无所知……)。有些人说这更快,例如,但是谷歌的简短搜索意味着这不一定是一致的。无论如何,你肯定不是第一个问这个问题的人,所以也许你会通过搜索找到更多的信息(希望我能说得更多,但我自己对此一无所知……)。