为什么TensorFlow XLA需要许多新的XLAP核? 关于XLA的TysFou流代码,我看到许多OPS的内核。 这似乎是一种重复。 为什么需要像compiler/tf2xla/kernels/concat\u op这样的操作?为什么不直接用core/
为什么TensorFlow XLA需要许多新的XLAP核?为什么TensorFlow XLA需要许多新的XLAP核? 关于XLA的TysFou流代码,我看到许多OPS的内核。 这似乎是一种重复。 为什么需要像compiler/tf2xla/kernels/concat\u op这样的操作?为什么不直接用core/,tensorflow,deep-learning,compiler-construction,xla,Tensorflow,Deep Learning,Compiler Construction,Xla,为什么TensorFlow XLA需要许多新的XLAP核? 关于XLA的TysFou流代码,我看到许多OPS的内核。 这似乎是一种重复。 为什么需要像compiler/tf2xla/kernels/concat\u op这样的操作?为什么不直接用core/kernels/concat_op替换它来保存代码呢
关于XLA的TysFou流代码,我看到许多OPS的内核。 这似乎是一种重复。 为什么需要像
compiler/tf2xla/kernels/concat\u op
这样的操作?为什么不直接用core/kernels/concat_op
替换它来保存代码呢