Machine learning 当掩码不等于零时,使用掩码的GlobalAveragePool

Machine learning 当掩码不等于零时,使用掩码的GlobalAveragePool,machine-learning,nlp,Machine Learning,Nlp,我们正在屏蔽层上实现GlobalAveragePooling,导致不支持的错误。 我们看到了,但不幸的是,此解决方案不适合我们的情况。 我们使用自定义嵌入算法,导致一些样本全为零,因此我们无法使用零向量进行屏蔽例如self.model.add(屏蔽(屏蔽(屏蔽值=-9999,输入形状=(最大长度,nr_in))和之后的一些层 avged = GlobalAveragePooling1D()(result, mask=max_len) maxed = GlobalMaxPooling1D()(re

我们正在屏蔽层上实现GlobalAveragePooling,导致不支持的错误。
我们看到了,但不幸的是,此解决方案不适合我们的情况。
我们使用自定义嵌入算法,导致一些样本全为零,因此我们无法使用零向量进行屏蔽
例如
self.model.add(屏蔽(屏蔽(屏蔽值=-9999,输入形状=(最大长度,nr_in))

和之后的一些层

avged = GlobalAveragePooling1D()(result, mask=max_len)
maxed = GlobalMaxPooling1D()(result, mask=max_len)
merged = merge([avged, maxed])
有没有办法将全局平均和最大池方法用于此类掩码?
谢谢

我们使用的是Tensorflow 0.12.0和keras 1.2.2