在iOS上过滤裸体/显式用户生成内容的标准方法

在iOS上过滤裸体/显式用户生成内容的标准方法,ios,image,image-processing,Ios,Image,Image Processing,在这种情况下,由版主预先批准图像是不切实际的 我想到了两种解决方案: -有一个标记/报告按钮,如果每次查看图像时报告一定次数,则自动删除图像 -使用在图像中检测裸体的库 第一种方法的问题是a)我必须提出一个不太敏感或不够敏感的阈值,b)这种报告方法必须让人们在报告之前看到图像 第二种方法的问题是,据我所知,裸体的图像检测通常是不可靠的 所以我想我想知道正常的做法是什么。应用商店中有太多的应用程序包含用户生成的内容,因此必须有一个好方法来实现这一点。我的主要担心/问题是,即使开发者采取了他可以采取

在这种情况下,由版主预先批准图像是不切实际的

我想到了两种解决方案:

-有一个标记/报告按钮,如果每次查看图像时报告一定次数,则自动删除图像

-使用在图像中检测裸体的库

第一种方法的问题是a)我必须提出一个不太敏感或不够敏感的阈值,b)这种报告方法必须让人们在报告之前看到图像

第二种方法的问题是,据我所知,裸体的图像检测通常是不可靠的


所以我想我想知道正常的做法是什么。应用商店中有太多的应用程序包含用户生成的内容,因此必须有一个好方法来实现这一点。我的主要担心/问题是,即使开发者采取了他可以采取的适当措施来防止这种情况发生,苹果是否会禁止含有色情内容的应用程序。如果我结合使用这两种方法,我觉得这对我的应用程序来说是可以接受的,但苹果会禁止任何泄露少量色情内容的应用程序吗?有更好的方法吗?

这里不能给出太详细的答案,因为我对CoreML没有太多经验,但是你可以尝试将CoreML与裸体机器学习模型一起使用(你应该可以免费找到),并过滤用户随模型上传的每一幅图像/视频

谢谢!我会调查的