Tensorflow CPU的XLA JIT优化 我尝试取一个保存的模型(或冻结图)并启用XLA JIT编译。 我使用configProto优化选项将其设置为L1,但它似乎对TF图的执行没有任何影响。 我读到它必须在手动模式下完成,而不仅仅是在会话级别。有什么例子,或者你可以指

Tensorflow CPU的XLA JIT优化 我尝试取一个保存的模型(或冻结图)并启用XLA JIT编译。 我使用configProto优化选项将其设置为L1,但它似乎对TF图的执行没有任何影响。 我读到它必须在手动模式下完成,而不仅仅是在会话级别。有什么例子,或者你可以指,tensorflow,tensorflow-serving,tensorflow-estimator,tensorflow-xla,Tensorflow,Tensorflow Serving,Tensorflow Estimator,Tensorflow Xla,CPU的XLA JIT优化 我尝试取一个保存的模型(或冻结图)并启用XLA JIT编译。 我使用configProto优化选项将其设置为L1,但它似乎对TF图的执行没有任何影响。 我读到它必须在手动模式下完成,而不仅仅是在会话级别。有什么例子,或者你可以指点我一些代码指针,在这里我可以运行一个已经保存的模型架构(保存的模型包或冻结图)的XLA-JIT编译。例如,如何加载冻结的图形?你在哪里应用会话配置选项?@Tyler:我只是在启用jit优化的情况下创建configProto,然后使用该配置创建

CPU的XLA JIT优化 <>我尝试取一个保存的模型(或冻结图)并启用XLA JIT编译。 我使用configProto优化选项将其设置为L1,但它似乎对TF图的执行没有任何影响。
我读到它必须在手动模式下完成,而不仅仅是在会话级别。有什么例子,或者你可以指点我一些代码指针,在这里我可以运行一个已经保存的模型架构(保存的模型包或冻结图)的XLA-JIT编译。例如,如何加载冻结的图形?你在哪里应用会话配置选项?@Tyler:我只是在启用jit优化的情况下创建configProto,然后使用该配置创建会话,并在我的java/c++代码中运行会话。你能共享你正在使用的任何代码吗?例如,如何加载冻结的图形?你在哪里应用会话配置选项?@Tyler:我只是在启用jit优化的情况下创建configProto,并使用该配置创建会话,然后在java/c++代码中运行会话。