Deep learning 拥有数千张图像的新数据集的基本事实

Deep learning 拥有数千张图像的新数据集的基本事实,deep-learning,image-segmentation,image-recognition,convolutional-neural-network,Deep Learning,Image Segmentation,Image Recognition,Convolutional Neural Network,我正在处理一个数据集,其中包含数千张没有用于分割的基本事实的图像。我查看了诸如“给我贴标签”之类的在线工具,但一张照片花费的时间太多,我有数千张照片。有更好的方法吗?您可以使用一些顶级模型,如ResNet/Segnet来创建基本事实,甚至可以满足您的目的 我发现这些github回购协议是最可靠、最易于使用的 赛格网: ResNet: 请注意,所有这些模型都包含一些错误。因此,由yo决定这些错误是否严重到足以危及您的工作您可以从现有模型(例如)开始,然后手动优化这些结果。

我正在处理一个数据集,其中包含数千张没有用于分割的基本事实的图像。我查看了诸如“给我贴标签”之类的在线工具,但一张照片花费的时间太多,我有数千张照片。有更好的方法吗?

您可以使用一些顶级模型,如ResNet/Segnet来创建基本事实,甚至可以满足您的目的

我发现这些github回购协议是最可靠、最易于使用的

  • 赛格网:
  • ResNet:

  • 请注意,所有这些模型都包含一些错误。因此,由yo决定这些错误是否严重到足以危及您的工作

    您可以从现有模型(例如)开始,然后手动优化这些结果。