Neural network 深入学习4J LSTM示例

Neural network 深入学习4J LSTM示例,neural-network,deep-learning,lstm,deeplearning4j,Neural Network,Deep Learning,Lstm,Deeplearning4j,我正在努力理解关于深入学习4J的LSTM。我正在检查示例的源代码,但我无法理解这一点 //Allocate space: //Note the order here: // dimension 0 = number of examples in minibatch // dimension 1 = size of each vector (i.e., number of characters) // dimension 2 = length of

我正在努力理解关于深入学习4J的LSTM。我正在检查示例的源代码,但我无法理解这一点

        //Allocate space:
    //Note the order here:
    // dimension 0 = number of examples in minibatch
    // dimension 1 = size of each vector (i.e., number of characters)
    // dimension 2 = length of each time series/example
    INDArray input = Nd4j.zeros(currMinibatchSize,validCharacters.length,exampleLength);
    INDArray labels = Nd4j.zeros(currMinibatchSize,validCharacters.length,exampleLength);

我们为什么要存储3D阵列,这意味着什么

好问题。但这与LSTM的功能无关,而是处理任务本身。因此,任务是预测下一个角色将是什么。下一个字符的预测本身有两个方面:分类和近似。 如果我们只处理近似,我们只能处理一维数组。但如果我们同时处理近似和分类问题,我们就不能只将字符的标准化ascii表示形式输入到神经网络中。我们需要将每个字符转换为数组

例如,a(非资本)将以以下方式表示:

1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0

b(非资本)将表示为: 0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0 c代表如下:

0,0,1,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0

Z(Z大写!!!!)

0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,0,1

因此,每个字符都给我们提供了二维数组。所有这些维度是如何构建的?代码注释有以下解释:

    // dimension 0 = number of examples in minibatch
    // dimension 1 = size of each vector (i.e., number of characters)
    // dimension 2 = length of each time series/example

我真诚地赞扬您在理解LSTM如何工作方面所做的努力,但您指出的代码给出了适用于所有类型神经网络的示例,并解释了如何使用神经网络中的文本数据,但没有解释LSTM如何工作。您需要了解源代码的另一部分。

获取代码的示例文件的名称是什么?看看下一个methodNueral-请加入Gitter上的Deeplearning4j社区,他们会回答你的问题:@Nueral你看到我的答案了吗?你能把它标记为回答或评论吗?你还需要什么吗?@Nueral这有意义吗?