Keras Google Colab无法访问驱动器内容

Keras Google Colab无法访问驱动器内容,keras,deep-learning,conv-neural-network,google-colaboratory,Keras,Deep Learning,Conv Neural Network,Google Colaboratory,尽管我将我的Google驱动器和其中的数据集定义为Google colab,但当我运行代码时,我给出了以下错误:FileNotFoundError:[Errno 2]没有这样的文件或目录:“content/drive/my drive/ 我已经在GoogleColab中定义了GoogleDrive,我可以通过GoogleColab访问它,但是当我运行我的代码时,我给出了这个错误 from keras.models import Sequential from keras.layers impor

尽管我将我的Google驱动器和其中的数据集定义为Google colab,但当我运行代码时,我给出了以下错误:FileNotFoundError:[Errno 2]没有这样的文件或目录:“content/drive/my drive/

我已经在GoogleColab中定义了GoogleDrive,我可以通过GoogleColab访问它,但是当我运行我的代码时,我给出了这个错误

from keras.models import Sequential
from keras.layers import Convolution2D
from keras.layers import MaxPooling2D
from keras.layers import Flatten
from keras.layers import Dense
model=Sequential()
model.add(Convolution2D(32,3,3,input_shape=(64,64,3),activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Convolution2D(32,3,3,activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Flatten())
model.add(Dense(output_dim=128,activation='relu'))
model.add(Dense(output_dim=1,activation='sigmoid'))
model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])

from keras.preprocessing.image import ImageDataGenerator
train_datagen=ImageDataGenerator(
    rescale=1./255,
    shear_range=0.2,
    zoom_range=0.2,
    horizontal_flip=True)
test_datagen=ImageDataGenerator(rescale=1./255)

training_set=train_datagen.flow_from_directory(
    directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/training_set',
    target_size=(64,64),
    batch_size=32,
    class_mode='binary')
test_set=test_datagen.flow_from_directory(
    directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',
    target_size=(64,64),
    batch_size=32,
    class_mode='binary')

#train
model.fit_generator(
    training_set,
    samples_per_epoch=8000,
    nb_epoch=2,
    validation_data=test_set,
    nb_val_samples=1000)

import numpy as np
from keras.preprocessing import image
test_image=image.load_img('sunn.jpg',target_size=(64,64))
test_image=image.img_to_array(test_image)
test_image=np.expand_dims(test_image,axis=0)
result=model.predict(test_image)
training_set.class_indices
if result[0][0] >= 0.5:
    prediction='dog'
else:
    prediction='cat'
print(prediction)

我认为你在你的/内容/动力中缺少了一个领先的/领先的。。。路径

典型的做法是通过安装驱动器文件

from google.colab import drive
drive.mount('/content/drive')

我一直在尝试,对于那些好奇的人来说,我不可能在google drive中使用带有文件夹的flow from目录。collab文件环境不读取路径,并出现文件夹不存在错误。我一直在试图解决这个问题并搜索堆栈,类似的问题被张贴在这里和这里,没有有效的解决方案,出于某种原因,很多人投了反对票

我找到的在谷歌colab上阅读20k图片的唯一解决办法是上传并处理它们,这样做浪费了两个小时。这是有道理的,google用ID标识驱动器内的内容,来自目录的流要求同时标识数据集和带有文件夹绝对路径的类,这与google驱动器标识方法不兼容。我想,另一种选择可能是使用谷歌云环境,然后付费。我们现在可以免费获得很多。这是我对新手的理解情况,如果有错请纠正我


edit1:我可以在google collab上使用目录中的flow,google也会用path来识别东西,问题是如果你使用os.getcwd,它不能正常工作,如果你使用它,它会告诉你当前的工作目录是/content,实际上是/content/drive/My drive/folders在您的驱动器中/…../folders有您的合作笔记本/。如果您在traingenerator中更改路径,使其包含此设置,并忽略操作系统,则它会工作。然而,即使在使用目录中的流时,ram也会出现问题,无法训练我的cnn,这可能是我刚刚遇到的问题。

装载后,移动到dataset文件夹中

cd content/drive/My Drive/Convolutional_Neural_Networks/dataset/
不要用那个!。
然后从google.colab导入驱动器将目录设置为./training\u set

驱动器。装入“/content/drive”

使用上述代码,您可以在colab中加载驱动器, 加载图像时,请使用:

directory='drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',
不是这个:

directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',
对于keras imagedatagenerator数据集struct:



因此,我从Colab的默认命令开始

from google.colab import drive
drive.mount('/gdrive', force_remount=True)
我所做的主要改变就在这里

img_width, img_height = 64, 64
train_data_dir = '/gdrive/My Drive/Colab Notebooks/dataset/training_set'
validation_data_dir = '/gdrive/My Drive/Colab Notebooks/dataset/test_set'

from tensorflow.keras.preprocessing.image import ImageDataGenerator

train_datagen = ImageDataGenerator(
    rescale=1./255,
    shear_range=0.2,
    zoom_range=0.2,
    horizontal_flip=True)

test_datagen = ImageDataGenerator(rescale=1./255)

train_generator = train_datagen.flow_from_directory(
 train_data_dir,
 target_size=(64, 64),
 batch_size=32,
 class_mode='binary')

validation_generator = test_datagen.flow_from_directory(
 validation_data_dir,
 target_size=(64, 64),
 batch_size=32,
 class_mode='binary')

classifier.fit_generator(
 train_generator,
 steps_per_epoch=8000, # Number of images in train set
 epochs=25,
 validation_data=validation_generator,
 validation_steps=2000)
这对我来说很有效,我希望这对别人有所帮助。
请忽略缩进。

由于某些原因,您必须将%cd放入您的google drive文件夹,然后执行代码,以便从驱动器访问文件或在其中写入文件

首先安装您的谷歌硬盘:

from google.colab import drive
drive.mount('/gdrive', force_remount=True)
然后将cd放入您的google驱动器,然后运行代码:

%cd /content/drive/My\ Drive/
directory='./Convolutional_Neural_Networks/dataset/training_set'

你能解释一下为什么会这样吗?我想!要执行像cd这样的bash命令,是否有必要?我遇到了同样的问题,所以尝试删除!这起作用了。如果您已经注意到,您只能在单元格中使用bash命令。我相信这就是colab的jupyter笔记本的工作原理。是的,每个单元格可以使用一个bash命令,而无需使用!。