Tensorflow(tflearn)数据集应该有多大?

Tensorflow(tflearn)数据集应该有多大?,tensorflow,speech-recognition,lstm,tflearn,Tensorflow,Speech Recognition,Lstm,Tflearn,我试图创建一个简单的LSTM网络用于语音识别,但我的网络验证精度较低我试图弄清楚这是由于训练输入和测试输入的依赖性,还是因为过度拟合问题 首先,我假设这是一个过度拟合的问题,然后我尝试增加训练数据集的大小,但是任何人都可以告诉我应该输入多大的数据集来训练我的网络?目前,我使用平衡输入作为0,而不使用0进行分类。(目前我使用1823的输入进行培训,456的输入进行测试,输入来自100个不同0到9位数的扬声器)。很难判断。在不知道数据分布、正在使用的lstm单元类型、希望达到的验证精度级别等情况下。

我试图创建一个简单的LSTM网络用于语音识别,但我的网络验证精度较低我试图弄清楚这是由于训练输入和测试输入的依赖性,还是因为过度拟合问题


首先,我假设这是一个过度拟合的问题,然后我尝试增加训练数据集的大小,但是任何人都可以告诉我应该输入多大的数据集来训练我的网络?目前,我使用平衡输入作为0,而不使用0进行分类。(目前我使用1823的输入进行培训,456的输入进行测试,输入来自100个不同0到9位数的扬声器)。

很难判断。在不知道数据分布、正在使用的lstm单元类型、希望达到的验证精度级别等情况下。。。没有办法知道需要多少数据

不幸的是,我们没有足够的信息来回答你

但我可以告诉你的是,更多的数据将以渐进的方式减少训练和测试准确性之间的差异。因此,数据越多,差异就越小。何时停止添加数据取决于您的目标

辍学技术也很有用