Warning: file_get_contents(/data/phpspider/zhask/data//catemap/2/tensorflow/5.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Tensorflow 不同的培训步骤或完整的演练_Tensorflow - Fatal编程技术网

Tensorflow 不同的培训步骤或完整的演练

Tensorflow 不同的培训步骤或完整的演练,tensorflow,Tensorflow,在tensorflow.org的初学者mnist教程中,他们用1000个步骤、100个示例进行训练。哪一项比仅包含55000分的训练集还要多?在专家mnist教程中,他们使用20000个步骤和50个示例进行培训 我认为培训步骤已经完成,因此每个培训步骤都可以打印输出损失或/和准确性,而无需等待结束或处理 但是,我们是否也可以简单地通过一个步骤将所有示例贯穿整个列车运行,然后查看结果,还是不可能 每次迭代时对整个数据集的训练称为批梯度下降。对小批量(例如一次100个样本)的训练称为随机梯度下降。在

在tensorflow.org的初学者mnist教程中,他们用1000个步骤、100个示例进行训练。哪一项比仅包含55000分的训练集还要多?在专家mnist教程中,他们使用20000个步骤和50个示例进行培训

我认为培训步骤已经完成,因此每个培训步骤都可以打印输出损失或/和准确性,而无需等待结束或处理


但是,我们是否也可以简单地通过一个步骤将所有示例贯穿整个列车运行,然后查看结果,还是不可能

每次迭代时对整个数据集的训练称为批梯度下降。对小批量(例如一次100个样本)的训练称为随机梯度下降。在on Cross Validated中,您可以阅读更多关于这两者的信息以及选择较大或较小批量的原因

批量梯度下降通常是不可行的,因为它需要太多的RAM。每次迭代也会花费更长的时间,即使您拥有计算资源,这种折衷通常也不值得


也就是说,批量大小是一个超参数,您可以使用它来找到一个运行良好的值。

在每次迭代中对整个数据集进行训练称为批量梯度下降。对小批量(例如一次100个样本)的训练称为随机梯度下降。在on Cross Validated中,您可以阅读更多关于这两者的信息以及选择较大或较小批量的原因

批量梯度下降通常是不可行的,因为它需要太多的RAM。每次迭代也会花费更长的时间,即使您拥有计算资源,这种折衷通常也不值得


也就是说,批量大小是一个超参数,您可以使用它来找到一个运行良好的值。

您好,谢谢您的回答。我问这个问题,因为我试着训练一个真正的“机器人”,每个动作都需要时间(例如3秒),因此训练与训练乒乓球不同。电脑可以在3秒钟内播放多个动作。因此,我必须保存已经完成的观察结果,然后构建一个模型,我想我可以简单地将它们一次全部通过训练,或者?@floboticsrobotics,我建议您首先以大约100个批量进行训练,直到模型停止改进验证集。然后再次开始训练同一模型,但批量增加/减少约30-50%,看看与初始批量相比,这是否改善了验证集的性能。重复此操作,直到找到最佳的批处理大小或内存不足。您好,谢谢您的回答。我问这个问题,因为我试着训练一个真正的“机器人”,每个动作都需要时间(例如3秒),因此训练与训练乒乓球不同。电脑可以在3秒钟内播放多个动作。因此,我必须保存已经完成的观察结果,然后构建一个模型,我想我可以简单地将它们一次全部通过训练,或者?@floboticsrobotics,我建议您首先以大约100个批量进行训练,直到模型停止改进验证集。然后再次开始训练同一模型,但批量增加/减少约30-50%,看看与初始批量相比,这是否改善了验证集的性能。重复此操作,直到找到效果最佳的批处理大小或内存不足。