Tensorflow TF_会话运行中的内存重新分配

Tensorflow TF_会话运行中的内存重新分配,tensorflow,c-api,Tensorflow,C Api,我正在使用TensorFlow和C接口。TF_SessionRun函数的文档说明:“成功后,与输出[0,noutputs-1]相对应的张量被放置在输出_值[]中。输出_值[]元素的所有权转移给调用者,调用者最终必须对其调用TF_DeleteTensor。” 我正在大量使用TF_SessionRun,我希望最大限度地减少内存重新分配。但是这个描述并没有提到内存重新分配的规则。如果输出TF_张量已经分配了适当的维数,它会重新分配还是按原样使用?这种行为将来会改变吗

我正在使用TensorFlow和C接口。TF_SessionRun函数的文档说明:“成功后,与输出[0,noutputs-1]相对应的张量被放置在输出_值[]中。输出_值[]元素的所有权转移给调用者,调用者最终必须对其调用TF_DeleteTensor。”

我正在大量使用TF_SessionRun,我希望最大限度地减少内存重新分配。但是这个描述并没有提到内存重新分配的规则。如果输出TF_张量已经分配了适当的维数,它会重新分配还是按原样使用?这种行为将来会改变吗