Ios 使用CreateML训练图像分类器的最佳图像分辨率是什么?

Ios 使用CreateML训练图像分类器的最佳图像分辨率是什么?,ios,machine-learning,coreml,createml,Ios,Machine Learning,Coreml,Createml,我想使用CreateML创建一个图像分类器模型。我有非常高分辨率的图像,但这是以数据流量和处理时间为代价的,所以我更喜欢使用尽可能小的图像 委员会说: 图像(…)不必是特定的大小,也不必彼此大小相同。但是,最好使用至少为299 x 299像素的图像 我训练了一个测试模型,其中包含各种大小的图像>299x299px,Xcode中的模型参数显示了尺寸299x299px,我知道这是标准化图像大小: 此维度似乎由CreateML图像分类器算法确定,并且不可配置 用大于299x299px的图像训练模型有

我想使用CreateML创建一个图像分类器模型。我有非常高分辨率的图像,但这是以数据流量和处理时间为代价的,所以我更喜欢使用尽可能小的图像

委员会说:

图像(…)不必是特定的大小,也不必彼此大小相同。但是,最好使用至少为299 x 299像素的图像

我训练了一个测试模型,其中包含各种大小的图像>299x299px,Xcode中的模型参数显示了尺寸299x299px,我知道这是标准化图像大小:

此维度似乎由CreateML图像分类器算法确定,并且不可配置

  • 用大于299x299px的图像训练模型有意义吗
  • 如果图像尺寸不是正方形(高度与宽度相同),则在标准化过程中,训练图像是否会中心裁剪为299x299px,或者图像中位于正方形之外的部分是否会影响模型

  • 通过阅读和经验培训图像分类模型(但没有苹果内部的直接知识),Create ML似乎可以缩放传入图像,以适合方形图像299 x 299。提供更大的映像将浪费磁盘空间和预处理时间。 我能找到的最好的文档是查看CreateML为图像分类器模板创建的mlmodel文件。输入被明确定义为彩色图像299 x 299。在单机应用程序中没有更改该设置的选项。 以下是一些文档(适用于默认使用ScenePrint的Classifier模板):


    游乐场工作区中可能有一个“中心/裁剪”选项,但我从未在独立应用程序版本的Create ML中找到它。

    这基本上是我的猜测,我正在寻找一种方法,通过引用来验证这一点。