Tensorflow 分布式再培训(TF和Google Coral)

Tensorflow 分布式再培训(TF和Google Coral),tensorflow,artificial-intelligence,transfer-learning,google-coral,Tensorflow,Artificial Intelligence,Transfer Learning,Google Coral,假设我有几十台Google Coral设备进行对象检测(使用相同的训练模型),每隔一段时间,我们会重新训练一台设备以获取新对象(转移学习),假设这台设备是Coral1,现在我想知道如何将学习、Coral1所学的知识转移到所有设备上(无需对这些设备进行再培训) 当然,设备可以是Google Coral或任何其他设备你不应该“重新培训设备”,而是重新培训模型。请参阅本指南,了解如何重新培训模型: 一旦你完成了一个模型的再培训,你就可以把它放到另一块板上重新加载。因为我们假设的是,所有的设备在开始时

假设我有几十台Google Coral设备进行对象检测(使用相同的训练模型),每隔一段时间,我们会重新训练一台设备以获取新对象(转移学习),假设这台设备是Coral1,现在我想知道如何将学习、Coral1所学的知识转移到所有设备上(无需对这些设备进行再培训)

当然,设备可以是Google Coral或任何其他设备

你不应该“重新培训设备”,而是重新培训模型。请参阅本指南,了解如何重新培训模型:


一旦你完成了一个模型的再培训,你就可以把它放到另一块板上重新加载。

因为我们假设的是,所有的设备在开始时都会在同一个模型上进行推理

当任何设备进行新的学习时,应将更新的训练模型推送到所有其他设备,帮助它们开始识别新对象

如果我们能够保持设备之间的同步,那么每个设备不需要单独训练

有关更多信息,请浏览此