Machine learning cntk.blocks.Stabilizer()函数在cntk中做什么?

Machine learning cntk.blocks.Stabilizer()函数在cntk中做什么?,machine-learning,deep-learning,cntk,Machine Learning,Deep Learning,Cntk,我正在复习教程。使用了函数cntk.blocks.Stabilizer,但目前没有该函数的文档。有人知道它做什么吗?它通过以下方式实现自稳定: Self-stabilized deep neural network," P. Ghahremani and J. Droppo, ICASSP 2016 这里是该报的直接链接:感谢您的反馈。我们将用更多信息更新教程。谢谢。只要看看报纸。听起来是个很棒的功能。据我所知,这可以添加到任何深层神经网络中,而不仅仅是递归神经网络,对吗?另外,使用它的最佳方

我正在复习教程。使用了函数cntk.blocks.Stabilizer,但目前没有该函数的文档。有人知道它做什么吗?

它通过以下方式实现自稳定:

Self-stabilized deep neural network," P. Ghahremani and J. Droppo, ICASSP 2016

这里是该报的直接链接:

感谢您的反馈。我们将用更多信息更新教程。谢谢。只要看看报纸。听起来是个很棒的功能。据我所知,这可以添加到任何深层神经网络中,而不仅仅是递归神经网络,对吗?另外,使用它的最佳方式是在每一层之后包含它,类似于批处理规范化?这会取代批量标准化吗?根据我的经验,稳定器总是至少在某种程度上提高了收敛速度。然而,批量标准化也总是更有效;但批处理规范化不能有效地用于循环内部。例如,在具有多个循环LSTM层的语言处理场景中,我的指导原则是:1在层之间使用BatchNormalization;2在h和c上的递归阶跃函数中使用稳定器,但在输入x上不使用稳定器,因为它已经由BatchNorm标准化。