Python 为什么在google colab中使用print()函数可以避免内存不足?

Python 为什么在google colab中使用print()函数可以避免内存不足?,python,jupyter-notebook,google-colaboratory,ram,Python,Jupyter Notebook,Google Colaboratory,Ram,我使用google colab已经有一段时间了,我一直在处理非常大的数据集,有时会破坏google collab的RAM,我实际上最终租用了collab PRO,所以现在我有25GB的RAM,它工作得很好,但发生了一些事情,我用下面的代码耗尽了RAM: trainX1=np.零((20035082480)) 列1=np.零(200) P=0 D=0 对于范围(200)内的x: k=random.randint(0,1) 如果k==1: 如果P

我使用google colab已经有一段时间了,我一直在处理非常大的数据集,有时会破坏google collab的RAM,我实际上最终租用了collab PRO,所以现在我有25GB的RAM,它工作得很好,但发生了一些事情,我用下面的代码耗尽了RAM:

trainX1=np.零((20035082480))
列1=np.零(200)
P=0
D=0
对于范围(200)内的x:
k=random.randint(0,1)
如果k==1:
如果P<100:
列车X1[x,:,:]=np.load(路径P+'/'+名称P1\U列车[P])
第1列[x]=0
P=P+1
其他:
列车X1[x,:,:]=np.load(路径D+'/'+名称D1\U列车[D])
第1列[x]=1
D=D+1
其他:
如果D<100:
列车X1[x,:,:]=np.load(路径D+'/'+名称D1\U列车[D])
第1列[x]=1
D=D+1
其他:
列车X1[x,:,:]=np.load(路径P+'/'+名称P1\U列车[P])
第1列[x]=0
P=P+1
很自然地,对于debuggin,我添加了print(x)函数来确定我实际可以处理多少次迭代,但它完成了,所以我真的很困惑,有人知道为什么会发生这种情况吗? 打印(x)功能是在
k=random.randint(0,1)函数

很难说。有一个随机因素。您是否明确设置了随机种子,以确保在添加
打印时执行完全相同的操作?
?不,我没有设置随机种子,但我也测试了写入k=1,结果很好,这是因为使用了random.randint()函数?我还剩下9GB的RAM