Tensorflow 是什么使动态rnn更快地编译?

Tensorflow 是什么使动态rnn更快地编译?,tensorflow,Tensorflow,我有一个复杂的网络,有许多重复的RNN步骤。编译需要很长时间(30分钟以上,大部分时间停留在渐变阶段),我发现这可能与此相关,这提到了一种更快的编译方法: 查看dynamic\u rnn,然后我重新格式化了我的网络,以包含一个while\u循环,如下所示: #input: tensor with 1000 time steps def body(i, prev_state): inp = tf.slice(input, i, 1) new_state = cell(tf.sque

我有一个复杂的网络,有许多重复的RNN步骤。编译需要很长时间(30分钟以上,大部分时间停留在渐变阶段),我发现这可能与此相关,这提到了一种更快的编译方法:

查看dynamic\u rnn,然后我重新格式化了我的网络,以包含一个while\u循环,如下所示:

#input: tensor with 1000 time steps
def body(i, prev_state):
    inp = tf.slice(input, i, 1)
    new_state = cell(tf.squeeze(int), prev_state) # Includes scope reuse
    return [tf.add(i, tf.constant(1)), new_state]

def cond(i):
    return some_cond(i)

tf.while_loop(cond, body, [tf.constant(0), initial_state])
但这似乎没有帮助。除了简单地将单元调用放在一个循环中,还有什么能使dynamic\u rnn的编译速度更快呢