Machine learning Keras是否有可能实现无监督数据增强(UDA)的一致性损失?

Machine learning Keras是否有可能实现无监督数据增强(UDA)的一致性损失?,machine-learning,keras,deep-learning,loss-function,Machine Learning,Keras,Deep Learning,Loss Function,我正在读一篇论文:去年由谷歌和CMU撰写。我认为对未标记的数据使用数据扩充,并为稳健性增加一致性损失的方法很有趣。例如,图中显示最终损失由普通监督损失和非监督损失部分组成。作者对未标记数据进行了扩充,如果模型对未标记数据及其扩充给出了不同的预测,那么差异(本文中的KL距离)将是模型的一致性损失。 我想在我以前的一些模型上尝试这种方法,这些模型是用Keras编写的。我只在Tensorflow和PyTorch中找到了这种方法的一些实现。我想知道是否有可能在Keras中也实施这种结构?由于我只有在K

我正在读一篇论文:去年由谷歌和CMU撰写。我认为对未标记的数据使用数据扩充,并为稳健性增加一致性损失的方法很有趣。例如,图中显示最终损失由普通监督损失和非监督损失部分组成。作者对未标记数据进行了扩充,如果模型对未标记数据及其扩充给出了不同的预测,那么差异(本文中的KL距离)将是模型的一致性损失。

我想在我以前的一些模型上尝试这种方法,这些模型是用Keras编写的。我只在Tensorflow和PyTorch中找到了这种方法的一些实现。我想知道是否有可能在Keras中也实施这种结构?由于我只有在Keras中构建有监督学习部分的经验,有人能给出一些关于如何在Keras中实现无监督一致性损失部分的想法吗

谢谢