Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/279.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/9/google-cloud-platform/3.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 巨蟒在GCP上被杀死_Python_Google Cloud Platform_Rnn - Fatal编程技术网

Python 巨蟒在GCP上被杀死

Python 巨蟒在GCP上被杀死,python,google-cloud-platform,rnn,Python,Google Cloud Platform,Rnn,我一直在进行比较,以便在本地机器和谷歌云平台上运行深度学习代码。 该代码是关于递归神经网络的,在本地机器上运行良好。 但在GCP cloud shell上,当我想编译python文件时,它显示“Killed” userID@projectID:~$python rnn.py 被杀 是因为我记性不好吗?(因为我试图逐行运行,第二次给变量分配大数据时,它卡住了。) 我的代码有点像这样 imdb=np.load('imdb\u word\u emb.npz')) X_列车=imdb['X_列车'] X

我一直在进行比较,以便在本地机器和谷歌云平台上运行深度学习代码。 该代码是关于递归神经网络的,在本地机器上运行良好。 但在GCP cloud shell上,当我想编译python文件时,它显示“Killed”

userID@projectID:~$python rnn.py

被杀

是因为我记性不好吗?(因为我试图逐行运行,第二次给变量分配大数据时,它卡住了。) 我的代码有点像这样

imdb=np.load('imdb\u word\u emb.npz'))
X_列车=imdb['X_列车']
X_测试=imdb['X_测试']

在第三行,机器卡住了,显示“死机”

我试图改变第二行和第三行的顺序,但它仍然卡在第三行。 我的训练数据是(25000,80128)-数组。我的测试数据也是如此。数据集在我的本地机器上运行得非常好。我确信这个数据集没有问题

还是因为其他原因?
如果知道如何解决这个问题的人,或者知道一些关键词的人告诉我如何处理这个问题,那就太棒了。谢谢:D

您得到的错误是因为Cloud Shell不适用于计算或网络密集型进程

我知道你想将你的本地机器与谷歌云平台进行比较。如上所述:

“当您启动Cloud Shell时,它提供了一个g1小型Google Compute 发动机“

A具有1.70GB RAM和共享物理核心。请记住这一点,正如前面所述,这是有限的,您的本地机器可能比Cloud Shell更强大,所以您不会看到任何改进


我建议您使用不同的机器类型创建一个计算引擎实例,您可以使用自定义机器类型来设置希望拥有的内核数和内存GB。我猜您希望在Google Compute Engine中更快地运行您的工作负载,以便在资源方面选择比本地计算机更好的计算机类型,并比较其改进程度。

您的数据集有多大?您可以尝试创建一个与您要处理的数据集一样大的常规np数组来解决这个问题,看看这是否也会引起问题。@NiayeshIsky这是个好主意。我的数据集是两个(25000,80128)数组作为训练和测试数据,再加上两个(25000,1)数组作为相应的标签。我试过了。相同大小的零np数组不存在内存问题。我不知道关键问题在哪里。嗯,很奇怪。。。我仍然认为这听起来像是内存问题,但如果不是,运行
imdb.keys()
是否会显示您期望的键?也就是说,
'X_train'
'X_test'
都应该在
imdb.keys()
中。但如果是内存问题(并且是一个公平的警告,我对GCP不是很熟悉-我基本上只是在这里引用),它可能是一个或一个问题。您可能还需要查看本地GCP。@NiayeshIsky是的,我查过了
imdb.keys()
正是我所期望的。我将查阅你的推荐信。谢谢我正在通过SSH从我自己的PC连接,我仍然收到
Killed
消息