Machine learning 如何方便地控制Nvidia StyleGAN中的功能?

Machine learning 如何方便地控制Nvidia StyleGAN中的功能?,machine-learning,image-processing,jupyter-notebook,nvidia,generative-adversarial-network,Machine Learning,Image Processing,Jupyter Notebook,Nvidia,Generative Adversarial Network,在Nvidia的StyleGAN视频演示中,他们展示了各种各样的UI滑块(很可能只是为了演示目的,而不是因为开发StyleGAN时他们实际上有完全相同的控件),以控制功能的混合: 然而,这里的GitHub repsoitory似乎缺少任何控制特性的简单方法 是否有任何Jupyter(或Kaggle)笔记本电脑具有通过滑块和上传的源照片进行功能控制的UI控件,或者一些简单的解决方案如何添加控件?我如何真正使用StyleGAN项目来做更多的事情,而不仅仅是生成一个随机图像?以防其他人也在寻找同样的

在Nvidia的StyleGAN视频演示中,他们展示了各种各样的UI滑块(很可能只是为了演示目的,而不是因为开发StyleGAN时他们实际上有完全相同的控件),以控制功能的混合:

然而,这里的GitHub repsoitory似乎缺少任何控制特性的简单方法


是否有任何Jupyter(或Kaggle)笔记本电脑具有通过滑块和上传的源照片进行功能控制的UI控件,或者一些简单的解决方案如何添加控件?我如何真正使用StyleGAN项目来做更多的事情,而不仅仅是生成一个随机图像?

以防其他人也在寻找同样的东西

最后,我找到了一个非常接近我想要的东西——一个可以通过UI控制StyleGAN面部特征的项目:

它使用的是CelebA数据集,因此种类不够多,而且特征往往纠缠太多。我希望为更大的Flickr Faces HQ数据集找到类似于此的解决方案(或Nvlabs的演示图像混合),但似乎还没有

我想,我必须自己学习机器学习和Python,以达到足够的理解水平,以便调整FacesHQ数据集上的透明示例

奇怪的是,(似乎)还没有人创建了Nvlabs视频演示中的如此方便的UI。

也许我还发现了一个:这更好,它提供了一种机制来发现和命名您自己的功能。