Neural network 在Keras中编写自定义退出层

Neural network 在Keras中编写自定义退出层,neural-network,keras,Neural Network,Keras,我仍然在学习Keras,并且正在学习它的各个组成部分。我很难编写自定义层。为了练习,我想到了以下几点。我想写一个自定义反转的辍学层,如的幻灯片77中所述,除了我想用概率p进行辍学,但在进行辍学反转时,要除以其他数字(比如p1)而不是p。我有两个选择 1) 完全按照课堂幻灯片中的内容编写代码。这很容易做到,但我不知道如何在测试时排除该层 2) 选项1是个坏主意,因为我正在重新编写很多我们已经有的代码。我曾想过使用dropout层,但我不知道如何直接修改另一层的结果。显示结果正在调用Theano的后

我仍然在学习Keras,并且正在学习它的各个组成部分。我很难编写自定义层。为了练习,我想到了以下几点。我想写一个自定义反转的辍学层,如的幻灯片77中所述,除了我想用概率p进行辍学,但在进行辍学反转时,要除以其他数字(比如p1)而不是p。我有两个选择

1) 完全按照课堂幻灯片中的内容编写代码。这很容易做到,但我不知道如何在测试时排除该层

2) 选项1是个坏主意,因为我正在重新编写很多我们已经有的代码。我曾想过使用dropout层,但我不知道如何直接修改另一层的结果。显示结果正在调用Theano的后端以执行此任务


你能描述一下实现这一目标的最佳方法吗?你能解决这个问题吗?是的,结果非常简单。对不起,我本应该删除的post@Sid你能分享一下你的实现吗?