Python Tensorflow,通过RNN编码可变长度句子,无填充

Python Tensorflow,通过RNN编码可变长度句子,无填充,python,tensorflow,neural-network,recurrent-neural-network,Python,Tensorflow,Neural Network,Recurrent Neural Network,我正在处理一个句子建模问题,其中我有可变长度的句子作为输入。我想用和RNN(例如LSTM或GRU)对句子进行编码。我发现的所有示例都使用某种填充或bucketing来编码句子,以确保该批中的所有句子长度相同。但我希望能够动态展开lstm。 通常,我只定义一个LSTM单元并使用tf.nn.dynamic\u rnn展开它 cell = tf.contrib.rnn.LSTMCell(num_units=64, state_is_tuple=True) outputs, last_state = t

我正在处理一个句子建模问题,其中我有可变长度的句子作为输入。我想用和RNN(例如LSTM或GRU)对句子进行编码。我发现的所有示例都使用某种填充或bucketing来编码句子,以确保该批中的所有句子长度相同。但我希望能够动态展开lstm。 通常,我只定义一个LSTM单元并使用
tf.nn.dynamic\u rnn
展开它

cell = tf.contrib.rnn.LSTMCell(num_units=64, state_is_tuple=True)
outputs, last_state = tf.nn.dynamic_rnn(
    cell=cell,
    sequence_length=X_lengths,
    inputs=X)
但是,似乎即使是
tf.nn.dynamic\u rnn
也希望输入具有相同的长度。在tensorflow中有没有一种不用填充的方法来处理变长句子