Python 使用和不使用GPU编程的语法差异?

Python 使用和不使用GPU编程的语法差异?,python,tensorflow,keras,deep-learning,Python,Tensorflow,Keras,Deep Learning,我对深度学习还不熟悉。我试着在CPU上运行python的深入学习代码,这很好,但同样的代码在带有gpu的tensorflow上不起作用。使用GPU的深度学习是否有语法差异。如果它的语法不同,那么任何开始使用的材料都会很有帮助,谢谢。下面是在CPU上运行的用于二进制分类的简单代码,如果我想在GPU上运行它,我应该做哪些必要的更改 # Importing the Keras libraries and packages from keras.models import Sequential from

我对深度学习还不熟悉。我试着在CPU上运行python的深入学习代码,这很好,但同样的代码在带有gpu的tensorflow上不起作用。使用GPU的深度学习是否有语法差异。如果它的语法不同,那么任何开始使用的材料都会很有帮助,谢谢。下面是在CPU上运行的用于二进制分类的简单代码,如果我想在GPU上运行它,我应该做哪些必要的更改

# Importing the Keras libraries and packages
from keras.models import Sequential
from keras.layers import Convolution2D
from keras.layers import MaxPooling2D
from keras.layers import Flatten
from keras.layers import Dense

# Initialising the CNN
classifier = Sequential()

# Step 1 - Convolution
classifier.add(Convolution2D(32, (3, 3), input_shape = (64, 64, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(32, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(32, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
#classifier.add(MaxPooling2D(pool_size = (2, 2)))

classifier.add(Convolution2D(64, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(64, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(64, (3, 3),dilation_rate=(4,4), activation = 'relu', ))



classifier.add(Convolution2D(128, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(128, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(128, (3, 3),dilation_rate=(4,4), activation = 'relu', ))


classifier.add(Convolution2D(256, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(4,4), activation = 'relu', ))

'''
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(1,1), activation = 'relu', ))

#classifier.add(Convolution2D(512, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
#classifier.add(Convolution2D(512, (3, 3),dilation_rate=(4,4), activation = 'relu', ))

classifier.add(Convolution2D(512, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
#classifier.add(Convolution2D(1024, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
#classifier.add(Convolution2D(1024, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
'''

# Step 3 - Flattening
classifier.add(Flatten())

# Step 4 - Full connection
classifier.add(Dense(units = 256, activation = 'relu'))
classifier.add(Dense(units = 1, activation = 'sigmoid'))

# Compiling the CNN
classifier.compile(optimizer = 'adam', loss = 'binary_crossentropy', metrics = ['accuracy'])

# Part 2 - Fitting the CNN to the images

from keras.preprocessing.image import ImageDataGenerator

train_datagen = ImageDataGenerator(rescale = 1./255,
                                    featurewise_center=True,
                                    featurewise_std_normalization=True,
                                    rotation_range=20,
                                    width_shift_range=0.05,
                                    height_shift_range=0.05,
                                    shear_range = 0.05,
                                    zoom_range = 0.05,
                                    horizontal_flip = True)

test_datagen = ImageDataGenerator(rescale = 1./255)

training_set = train_datagen.flow_from_directory('Data_base/Processing_Data/Training',
                                                 target_size = (64, 64),
                                                 batch_size = 20,
                                                 class_mode = 'binary')

test_set = test_datagen.flow_from_directory('Data_base/Processing_Data/Test',
                                            target_size = (64, 64),
                                            batch_size = 6,
                                            class_mode = 'binary')

classifier.fit_generator(training_set,
                         samples_per_epoch =44 ,
                         nb_epoch = 20,
                         validation_data = test_set,
                         nb_val_samples =6 )
classifier.save_weights('first_try.h5')

您根本不需要对代码进行任何更改

首先,如果您想使用GPU,请确保安装了CUDA和cuDNN。您需要的版本取决于您的GPU和TensorFlow版本。这里有几个教程


第二,不要在同一环境中安装tensorflow和tensorflow gpu。至少对我来说,这导致了一些奇怪的错误。(我不知道这是否已经修复。)

你需要共享你的代码,以便其他人可以帮助你。分享你得到的结果,以及它们与你期望的不同之处。具体说明您发现语法的哪些部分具有挑战性。如果你不花时间仔细解释你的问题,没有人能帮你。我只是问一个一般性的问题。如果算法是为使用tensorflow进行深度学习的CPU编写的,那么在使用gpu的tensorflow上运行是否需要更改语法?我已经分享了代码并重新表述了我的问题。您可能会发现这些问题很有意思:您应该包括您遇到的错误,在CPU/gpu中运行通常不需要更改代码。