Machine learning 在Keras 2.0上使用合并层(lambda/函数)?

Machine learning 在Keras 2.0上使用合并层(lambda/函数)?,machine-learning,tensorflow,keras,keras-layer,keras-2,Machine Learning,Tensorflow,Keras,Keras Layer,Keras 2,我试图将模型移植到Kerasv2,但以下功能有问题: def __call__(self, sent1, sent2): def _outer(AB): att_ji = K.batch_dot(AB[1], K.permute_dimensions(AB[0], (0, 2, 1))) return K.permute_dimensions(att_ji, (0, 2, 1)) return merge([s

我试图将模型移植到
Keras
v2,但以下功能有问题:

  def __call__(self, sent1, sent2):
        def _outer(AB):
            att_ji = K.batch_dot(AB[1], K.permute_dimensions(AB[0], (0, 2, 1)))
            return K.permute_dimensions(att_ji, (0, 2, 1))

        return merge([self.model(sent1), self.model(sent2)], mode=_outer,
                     output_shape=(self.max_length, self.max_length))
根据文档,
模式是:

字符串或lambda/函数。如果为字符串,则必须为1 共有:'sum','mul','concat','ave','cos','dot','max'。 如果使用lambda/function,则应将张量列表作为输入 返回一个张量

Keras
版本中的等效功能是什么(当模式为function/lambda时),以避免以下警告:

UserWarning: The `merge` function is deprecated and will be removed after 08/2017. Use instead layers from `keras.layers.merge`, e.g. `add`, `concatenate`, etc.
  return merge([attention, sentence], mode=_normalize_attention, output_shape=(self.max_length, self.nr_hidden))

这是一种实现模型的奇怪方式。。。。(至少在keras 2…)

看起来您应该使用一个带有自定义函数的lambda层

def __call__(self, sent1, sent2):
    def _outer(AB) #custom function
        att_ji = K.batch_dot(AB[1], K.permute_dimensions(AB[0], (0, 2, 1)))    
        return K.permute_dimensions(att_ji, (0, 2, 1))

    return Lambda(_outer, 
                  output_shape=(self.max_length,self.max_length))([
                                           self.model(sent1), 
                                           self.model(sent2)])
如果
self.model(sent)
返回由keras层生成的张量,则此操作应该有效


现在,对于实际的合并层,在keras 2中有以下层:

  • 连接(轴=…)(传感器列表)
  • 添加()(listOfTensors)
  • 乘法()
  • ,包括一个点
层,该层“可能”与该功能相同 如果使用点图层:

return Dot()([self.model(sent1),self.model(sent2)])

这需要测试。keras中的点和批点很容易混淆

实现模型的方式有点奇怪。。。。(至少在keras 2…)

看起来您应该使用一个带有自定义函数的lambda层

def __call__(self, sent1, sent2):
    def _outer(AB) #custom function
        att_ji = K.batch_dot(AB[1], K.permute_dimensions(AB[0], (0, 2, 1)))    
        return K.permute_dimensions(att_ji, (0, 2, 1))

    return Lambda(_outer, 
                  output_shape=(self.max_length,self.max_length))([
                                           self.model(sent1), 
                                           self.model(sent2)])
如果
self.model(sent)
返回由keras层生成的张量,则此操作应该有效


现在,对于实际的合并层,在keras 2中有以下层:

  • 连接(轴=…)(传感器列表)
  • 添加()(listOfTensors)
  • 乘法()
  • ,包括一个点层,该层“可能”与该功能相同
如果使用点图层:

return Dot()([self.model(sent1),self.model(sent2)])
这需要测试。keras中的点和批点很容易混淆