Python 如何在TensorFlow中动态省略backprop中的梯度路径?

Python 如何在TensorFlow中动态省略backprop中的梯度路径?,python,tensorflow,Python,Tensorflow,我想沿着某个序列进行波束搜索,然后对结果应用损失函数。光束搜索的结果只包含了我在光束搜索过程中必须评估的一部分张量,但Tensorflow必须将它们全部存储在内存中,因为它无法预测它们在搜索结束时是否仍然相关。这会消耗大量内存并导致OOM 我知道有一个tf.stop\u gradient函数,但它是静态的,我正在寻找一种动态机制,它允许我从内存中取出不再需要的张量值

我想沿着某个序列进行波束搜索,然后对结果应用损失函数。光束搜索的结果只包含了我在光束搜索过程中必须评估的一部分张量,但Tensorflow必须将它们全部存储在内存中,因为它无法预测它们在搜索结束时是否仍然相关。这会消耗大量内存并导致OOM

我知道有一个
tf.stop\u gradient
函数,但它是静态的,我正在寻找一种动态机制,它允许我从内存中取出不再需要的张量值