Python AWS p3.2xlarge上的图像分割推断比本地2080 TI慢

Python AWS p3.2xlarge上的图像分割推断比本地2080 TI慢,python,tensorflow,keras,deep-learning,image-segmentation,Python,Tensorflow,Keras,Deep Learning,Image Segmentation,我使用的是Keras+TF1.14。我有一个基于Resnet152的图像分割训练模型。我注意到,在我的桌面(2080 TI+Ryzen9)上,推理比在AWS p3.2xlarge(特斯拉V100)上运行快得多(约1.5倍) 这真的让我很困惑,因为从我在网上看到的一切来看,V100应该快30-50%。我唯一的优势是有更好的CPU。所以我想知道,图像分割的推断是否受到CPU的限制,我没有充分利用V100的潜力?所有的预处理都是提前完成的 如何充分利用AWS的V100

我使用的是Keras+TF1.14。我有一个基于Resnet152的图像分割训练模型。我注意到,在我的桌面(2080 TI+Ryzen9)上,推理比在AWS p3.2xlarge(特斯拉V100)上运行快得多(约1.5倍)

这真的让我很困惑,因为从我在网上看到的一切来看,V100应该快30-50%。我唯一的优势是有更好的CPU。所以我想知道,图像分割的推断是否受到CPU的限制,我没有充分利用V100的潜力?所有的预处理都是提前完成的

如何充分利用AWS的V100