Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/python/361.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181

Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Python 如何使用OptionsDataset构建卷积神经网络_Python_Tensorflow_Keras_Conv Neural Network_Tensorflow Datasets - Fatal编程技术网

Python 如何使用OptionsDataset构建卷积神经网络

Python 如何使用OptionsDataset构建卷积神经网络,python,tensorflow,keras,conv-neural-network,tensorflow-datasets,Python,Tensorflow,Keras,Conv Neural Network,Tensorflow Datasets,今年夏天,我开始学习神经网络,目前正计划使用tensorflow_数据集中的voc数据集实现卷积神经网络,用于目标检测。我已使用以下代码段加载数据集: ds, info = tfds.load('voc', split=['train','test'], with_info=True, shuffle_files=True) 然后,我将数据集拆分为训练和测试,相应地: train, test = ds[0], ds[1] 我还使用keras layers API构建了我的模型。问题是,我实际

今年夏天,我开始学习神经网络,目前正计划使用tensorflow_数据集中的voc数据集实现卷积神经网络,用于目标检测。我已使用以下代码段加载数据集:

ds, info = tfds.load('voc', split=['train','test'], with_info=True, shuffle_files=True)
然后,我将数据集拆分为训练和测试,相应地:

train, test = ds[0], ds[1]
我还使用keras layers API构建了我的模型。问题是,我实际上不知道如何使用我的模型来训练这个数据集。如何将此数据集输入到模型中?最有效、最合理的方法是什么

列车类型、试验拆分如下:

print(type(train))
print(type(test))
输出:

<class 'tensorflow.python.data.ops.dataset_ops._OptionsDataset'>
<class 'tensorflow.python.data.ops.dataset_ops._OptionsDataset'>

训练数据集包含用于训练模型的数据。测试通常包含用于评估模型的数据。请注意,实际的voc数据集也有一个验证拆分:

因此,通常的逻辑是在训练时使用训练数据集进行训练,使用验证数据集进行验证。然后,使用测试数据集评估模型的性能。因此,结构将如下所示:

model.fit(train_dataset, epochs=x, validation_data=validation_dataset)

model.evaluate(test_dataset)

我明白了,但如何将这些拆分转换为模型的输入呢。我的意思是,训练数据集、验证数据集和测试数据集变量的类型是什么?这就是我被卡住的地方。正是你从加载中得到的类型。