Tensorflow XLA和TunSoFras-Lite/Android NAPAPI有什么区别? Tensorflow提出了XLA编译器,编译后端C++ TysFooLoad目标LLVM。我对XLA的理解是,只要有LLVM ->设备支持,它就支持通用加速设备的一步。

Tensorflow XLA和TunSoFras-Lite/Android NAPAPI有什么区别? Tensorflow提出了XLA编译器,编译后端C++ TysFooLoad目标LLVM。我对XLA的理解是,只要有LLVM ->设备支持,它就支持通用加速设备的一步。,tensorflow,tensorflow-lite,tensorflow-xla,hexagon-dsp,Tensorflow,Tensorflow Lite,Tensorflow Xla,Hexagon Dsp,Tensorflow lite是最近发布的,它取代了Tensorflow Mobile,似乎是工作重点放在瞄准嵌入式和移动设备上的地方,而嵌入式DSP和GPU显然是这些环境中常见的可选处理器。Tensorflow lite似乎将操作移交给Android NNAPI(神经网络API),并支持Tensorflow OPs的一个子集 这就引出了一个问题:谷歌将朝哪个方向支持非CUDA设备?还有XLA的用例是否超出了我的描述? < P>我在XLA上工作。XLA编译器有三个后端:CPU、GPU和TPU。C

Tensorflow lite是最近发布的,它取代了Tensorflow Mobile,似乎是工作重点放在瞄准嵌入式和移动设备上的地方,而嵌入式DSP和GPU显然是这些环境中常见的可选处理器。Tensorflow lite似乎将操作移交给Android NNAPI(神经网络API),并支持Tensorflow OPs的一个子集


这就引出了一个问题:谷歌将朝哪个方向支持非CUDA设备?还有XLA的用例是否超出了我的描述?

< P>我在XLA上工作。XLA编译器有三个后端:CPU、GPU和TPU。CPU和GPU是基于LLVM的开放源代码,TPU是封闭源代码

我不知道XLA对于移动设备的计划是什么,所以我不能对此发表评论。

使用XF模型和XLA模型,而不是直接执行模型,XLA会为您带来大量的OPS。例如,

我不确定XLA是否支持加速设备。尽管中提到了新硬件的可移植性,但我认为主要是关于时间/内存性能,以及集成的易用性(对于AOT)。TF Lite更多的是关于最小化资源,它是另一种实现方式,虽然我认为Lite和XLA可能最终以某种方式收敛。Wrt平台支持,虽然官方只支持CPU和CUDA(well和Cloud TPU),但SyCL和ROCm支持可供编译。在任何情况下,如果您想了解未来的计划,也许您可以在其中一个网站上获得更权威的答案。