Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/287.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/1/angularjs/20.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 使用高级API tf.contrib.learn.DNNClassifier时,Tensorflow批次大小是多少_Python_Neural Network_Tensorflow_Deep Learning - Fatal编程技术网

Python 使用高级API tf.contrib.learn.DNNClassifier时,Tensorflow批次大小是多少

Python 使用高级API tf.contrib.learn.DNNClassifier时,Tensorflow批次大小是多少,python,neural-network,tensorflow,deep-learning,Python,Neural Network,Tensorflow,Deep Learning,我已经编码了上面的源代码 如您所见,我没有为batch\u size添加参数,我可以将该参数添加到classifier.fi() 我试着执行这段代码,它似乎在循环,没有批量大小。 我的意思是,它看起来像是使用完整大小的数据而不是小批量的数据进行训练 这是真的吗 我想知道批量大小的默认设置是什么 提前谢谢。很抱歉,我应该在发布之前查看源代码 def binaryClassify_DNN(units,steps,trainingFilePath,testingFilePath,modelPath):

我已经编码了上面的源代码

如您所见,我没有为
batch\u size
添加参数,我可以将该参数添加到
classifier.fi()

我试着执行这段代码,它似乎在循环,没有批量大小。 我的意思是,它看起来像是使用完整大小的数据而不是小批量的数据进行训练

这是真的吗

我想知道批量大小的默认设置是什么


提前谢谢。

很抱歉,我应该在发布之前查看源代码

def binaryClassify_DNN(units,steps,trainingFilePath,testingFilePath,modelPath):

    # Data sets

    # Load datasets.
    training_set = tf.contrib.learn.datasets.base.load_csv(filename=trainingFilePath,target_dtype=np.float)
    test_set = tf.contrib.learn.datasets.base.load_csv(filename=testingFilePath,target_dtype=np.float)

    # Build 3 layer DNN with 10, 20, 10 units respectively.
    classifier = tf.contrib.learn.DNNClassifier(hidden_units=units,n_classes=2,model_dir=modelPath,optimizer=tf.train.ProximalAdagradOptimizer(learning_rate=0.1))

    # Fit model.
    classifier.fit(x=training_set.data,
                   y=training_set.target,
                   steps=steps)

    # Evaluate accuracy.
    accuracy_score = classifier.evaluate(x=test_set.data,
                                         y=test_set.target)["accuracy"]
    print('Accuracy: {0:f}'.format(accuracy_score))

如您所见,默认的批处理大小是“x”的第一个维度

很抱歉,我应该在发布之前查看源代码

def binaryClassify_DNN(units,steps,trainingFilePath,testingFilePath,modelPath):

    # Data sets

    # Load datasets.
    training_set = tf.contrib.learn.datasets.base.load_csv(filename=trainingFilePath,target_dtype=np.float)
    test_set = tf.contrib.learn.datasets.base.load_csv(filename=testingFilePath,target_dtype=np.float)

    # Build 3 layer DNN with 10, 20, 10 units respectively.
    classifier = tf.contrib.learn.DNNClassifier(hidden_units=units,n_classes=2,model_dir=modelPath,optimizer=tf.train.ProximalAdagradOptimizer(learning_rate=0.1))

    # Fit model.
    classifier.fit(x=training_set.data,
                   y=training_set.target,
                   steps=steps)

    # Evaluate accuracy.
    accuracy_score = classifier.evaluate(x=test_set.data,
                                         y=test_set.target)["accuracy"]
    print('Accuracy: {0:f}'.format(accuracy_score))

如您所见,默认批次大小是“x”的第一个维度

如果您没有设置它,那么它是x的第一个维度,但是您可以使用参数设置它并使用它如果您没有设置它,那么它是x的第一个维度,但是您可以使用参数设置它并使用它