Machine learning 覆盆子皮上的SSD或YLO

Machine learning 覆盆子皮上的SSD或YLO,machine-learning,deep-learning,solid-state-drive,yolo,Machine Learning,Deep Learning,Solid State Drive,Yolo,是否可以在raspberry pi 3上运行SSD或YOLO对象检测以进行实时对象检测(2/4帧x秒) 我尝试过用python实现,但每帧需要14秒。我最近开始为我的一个项目研究对象检测,我想知道我是否遗漏了一些东西 我想在树莓皮3上实现一个实时目标检测系统,用于监视开放空间(如花园)。我已经尝试了一些可用的解决方案。我不需要检测很多类(只有3个人,狗,自行车),所以也许最快的选项可以用更少的过滤器和参数重新训练,从而减少总的计算时间 Darknet(YOLO)[安装默认的Darknet测试的Y

是否可以在raspberry pi 3上运行SSD或YOLO对象检测以进行实时对象检测(2/4帧x秒)


我尝试过用python实现,但每帧需要14秒。

我最近开始为我的一个项目研究对象检测,我想知道我是否遗漏了一些东西

我想在树莓皮3上实现一个实时目标检测系统,用于监视开放空间(如花园)。我已经尝试了一些可用的解决方案。我不需要检测很多类(只有3个人,狗,自行车),所以也许最快的选项可以用更少的过滤器和参数重新训练,从而减少总的计算时间

Darknet(YOLO)[安装默认的Darknet测试的YOLOv2和YOLO在raspberry pi3上运行,每个帧在每个图像上运行约450秒。Tiny YOLO在每个图像上运行了40秒

Tensorflow Google Object Detection(API)[:我已经尝试了所有可用的网络。性能最好的是SSD inception网络,每幅图像运行26秒

Microsoft Embedded Learning Library(ELL)[:由于某些编译原因,我无法使其工作,但稍后将尝试再次检查它。请让我知道这是否适用于您,以及它在对象检测任务中的执行情况

Darknet NNPACK[:此处,Darknet针对arm处理器进行了优化,并使用某种FFT实现实现了卷积运算,大大提高了运算速度

我已经从中获得了最大的希望,但它也有它的问题

已安装的darknet tested YOLO(完整版本1)在Raspberry Pi3上运行,每个图像需要约45秒,比默认YOLO网络快10倍。Tiny YOLO每帧运行1.5秒,但未给出任何结果

这可能是由于模型和cfg文件之间的版本冲突而报告的错误。我已经打开了一个github(问题)[不久前,还没有收到响应

MXnet(SSD)[:MXnet中的SSD端口(未使用NNPACK编译)MXnet SSD resnet 50每个映像88秒MXnet SSD接收v3每个映像35秒


尤罗咖啡[:在yolo_small上运行caffe每帧运行24秒。在yolo_tiny上运行caffe每帧运行5秒。这看起来是我尝试过的最快的一次,除非darknet nnpack问题能够解决。

我设法在raspberry pi上运行MobileNetSSD,并获得大约4-5 fps。问题是,你可能获得80-90%的pi资源使相机RSTP连接在大量活动中失败,丢失大量帧,并在帧上获得大量工件,因此我不得不购买NCS棒并将其插入pi,现在我可以以4 fps的速度运行,但pi资源在30%左右非常低。
使用mobilenet ssd的ncs处理图像大约需要0.80秒。

一个选项是使用Movidius ncs,只有在型号小得多的情况下,使用raspberry才会起作用

关于NCS的实施: 您应该能够使Mobilenet SSD以~8fps的速度运行。有一些示例适用于简单的用例。我目前正在开发一种类似于Darknet参考模型的对象检测器,该检测器在NCS中以~15fps的速度运行,但该模型尚不可用。 一旦它运行良好,我会将其开源

这是:

这些值都是无关紧要的。如果一个模型每张图像花费的时间超过1秒,那就无关紧要了。你到底为什么要尝试一个完整的蛋黄酱或覆盆子!?.8秒每张图像=1.2 fps.I“我不知道你是怎么做到的?我只处理有运动的图像,为什么你要处理静态视频源。VPU没有任何标签,它可以24/7运行。我甚至在他们的社区上询问过,他们最好不要24/7运行