Android 如何使用TensorFlow Lite在设备上使用多个自定义模型?
我想在应用程序中附带多个自定义模型。所有的模型都有相同的用途。我现在不想主持Android 如何使用TensorFlow Lite在设备上使用多个自定义模型?,android,firebase,firebase-mlkit,Android,Firebase,Firebase Mlkit,我想在应用程序中附带多个自定义模型。所有的模型都有相同的用途。我现在不想主持 如何访问多个模型 即使我托管了它,那么我如何才能为相同的目的访问不同的自定义模型呢 如果使用mlkit无法实现上述目标,是否有其他方法来组合所有模型的结果?上述代码段中的本地模型名称变量指向与应用程序捆绑在一起的模型文件。您只需将该值更改为指向与应用程序捆绑在一起的某个型号 当模型被托管时,它的工作方式类似。每个模型都有不同的名称,因此您只需传递要使用的模型的名称。上面代码段中的LOCAL\u model\u nam
如果使用mlkit无法实现上述目标,是否有其他方法来组合所有模型的结果?上述代码段中的本地模型名称变量指向与应用程序捆绑在一起的模型文件。您只需将该值更改为指向与应用程序捆绑在一起的某个型号
当模型被托管时,它的工作方式类似。每个模型都有不同的名称,因此您只需传递要使用的模型的名称。上面代码段中的LOCAL\u model\u name变量指向与应用程序捆绑在一起的模型文件。您只需将该值更改为指向与应用程序捆绑在一起的某个型号
当模型被托管时,它的工作方式类似。每个模型都有不同的名称,因此您只需传递要使用的模型的名称。我认为我们还不支持在一个推理中运行多个模型。如果您想在不同的场景中运行不同的模型,可以使用不同的名称分配它们,并使用不同的模型源来触发它们
如果您能更清楚地描述您的用例,我们可以看到将来如何支持它 我认为我们还不支持在一个推理中运行多个模型。如果您想在不同的场景中运行不同的模型,可以使用不同的名称分配它们,并使用不同的模型源来触发它们
如果您能更清楚地描述您的用例,我们可以看到将来如何支持它 谢谢你的建议。这不是我期待的答案。我非常清楚你提出的建议。不过,我很想知道如何同时使用多个模型。啊,对不起。我现在明白了。我认为这不受支持,但让我向团队确认一下。我假设动态切换模型对您不起作用(即注册一个,运行一个推理,然后注册另一个,运行一个推理)?谢谢您的建议。这不是我期待的答案。我非常清楚你提出的建议。不过,我很想知道如何同时使用多个模型。啊,对不起。我现在明白了。我认为这不受支持,但让我向团队确认一下。我假设动态切换模型对您不起作用(即注册一个,运行一个推理,然后注册另一个,运行一个推理)?
FirebaseLocalModelSource localModelSource =
new FirebaseLocalModelSource.Builder(LOCAL_MODEL_NAME)
.setAssetFilePath(LOCAL_MODEL_PATH).build();
// add multiple
FirebaseModelManager manager = FirebaseModelManager.getInstance();
manager.registerLocalModelSource(localModelSource);
// access multiple