Python 在EDge TPU USB上运行分类推理,无需每次重新加载模型

Python 在EDge TPU USB上运行分类推理,无需每次重新加载模型,python,image,classification,tpu,Python,Image,Classification,Tpu,我对Tensor Flow/Edge TPU的使用非常陌生。 当我使用classify_image.py脚本运行图像分类时 它在Edge TPU USB模块上的性能非常差,因为它总是加载模型并重新启动设备(每次运行脚本时都会看到Win10设备管理器重新安装它)。 有没有办法运行python脚本,使用USB加密狗中最后加载的模型对图像进行分类,从而避免3-5秒的设备配置时间?通常,您应该首先加载模型并存储它。然后,当您使用它进行调用时,您只需要分配张量,然后将输入传递给它。您可以在循环等待输入(即

我对Tensor Flow/Edge TPU的使用非常陌生。 当我使用classify_image.py脚本运行图像分类时 它在Edge TPU USB模块上的性能非常差,因为它总是加载模型并重新启动设备(每次运行脚本时都会看到Win10设备管理器重新安装它)。
有没有办法运行python脚本,使用USB加密狗中最后加载的模型对图像进行分类,从而避免3-5秒的设备配置时间?

通常,您应该首先加载模型并存储它。然后,当您使用它进行调用时,您只需要分配张量,然后将输入传递给它。您可以在循环等待输入(即通过websocket发送……或加载目录)时保留脚本。但据我所见,您必须将图像自加载到模型中,因此很难将TPU的固定部分自分配到您的模型中。

请您更新问题,并提供更多关于任务是什么、设置/过程是什么、预期结果是什么、结果是什么的详细信息。这将允许人们理解问题并给你有用的建议,而不是随机的信息,这些信息可能对你的用例毫无帮助。什么是classify_image.py?我想这方面需要一些知识,但指向您正在使用的资源(如源代码、文档等)也无妨。我遵循了Coral:[link]的quide示例,但使用了我自己的tensor flow编译模型。正如我所说的,这是可以预期的,但我需要使用不同的图片重新运行脚本,而不会每次重新加载模型,从而导致5秒的设备配置延迟。我要做的是:python classify_image.py--model Mymodel.tflite--labels Mylabels.txt--input 1stpicture.bmp(需要5秒,没有问题)python重新分类——输入2ndpicture.bmp(不应超过几毫秒),因此我在这里寻找“重新分类”脚本。