在keras中使用EfficientNet时资源排风机出错
我正在使用谷歌colab。使用在keras中使用EfficientNet时资源排风机出错,keras,deep-learning,classification,conv-neural-network,Keras,Deep Learning,Classification,Conv Neural Network,我正在使用谷歌colab。使用EfficientNetB3时,我得到以下错误 资源耗尽:当使用形状[15,95,95192]和类型float分配张量时,OOM 我理解这一点,因为我的数据不适合GPU。但是当我尝试InceptionResNetV2时,没有得到任何错误 EfficientNetB3中可训练参数的数量为22220824 InceptionResNetV2中可训练参数的数量为109380744 InceptionResNetV2中可训练参数的数量是5比EfficientNetB3多的时
EfficientNetB3
时,我得到以下错误资源耗尽:当使用形状[15,95,95192]和类型float分配张量时,OOM
我理解这一点,因为我的数据不适合GPU。但是当我尝试InceptionResNetV2
时,没有得到任何错误
EfficientNetB3
中可训练参数的数量为22220824
InceptionResNetV2
中可训练参数的数量为109380744
InceptionResNetV2
中可训练参数的数量是5
比EfficientNetB3
多的时间。所以我希望InceptionResNetV2
抛出错误而不是EfficientNetB3
知道我在EfficientNetB3
中出现资源错误的原因吗
注:我使用两个并行网络,这些参数是两个网络参数的总和。所有的论文似乎都在使用TPU来运行效率网。我有一种感觉,是有别的东西让它使用了更多的记忆。我同意这是不直观的,因为效率网中的训练参数较少。然而,您似乎确实需要使用TPU来实现这一点。因此,基本上这需要使用一些云服务,让您能够访问TPU ect…我在使用tf.keras.applications时看到了同样的情况,其中EfficientNetB3(48MB,12M参数)使用的内存几乎与Exception(88MB,23M参数)完全相同。EfficientNetB4给了我OOM错误,尽管这应该是一个比Exception更小的模型,参数更少