Machine learning 在Keras 2.0上使用合并层(lambda/函数)?
我试图将模型移植到Machine learning 在Keras 2.0上使用合并层(lambda/函数)?,machine-learning,tensorflow,keras,keras-layer,keras-2,Machine Learning,Tensorflow,Keras,Keras Layer,Keras 2,我试图将模型移植到Kerasv2,但以下功能有问题: def __call__(self, sent1, sent2): def _outer(AB): att_ji = K.batch_dot(AB[1], K.permute_dimensions(AB[0], (0, 2, 1))) return K.permute_dimensions(att_ji, (0, 2, 1)) return merge([s
Keras
v2,但以下功能有问题:
def __call__(self, sent1, sent2):
def _outer(AB):
att_ji = K.batch_dot(AB[1], K.permute_dimensions(AB[0], (0, 2, 1)))
return K.permute_dimensions(att_ji, (0, 2, 1))
return merge([self.model(sent1), self.model(sent2)], mode=_outer,
output_shape=(self.max_length, self.max_length))
根据文档,模式是:
字符串或lambda/函数。如果为字符串,则必须为1
共有:'sum','mul','concat','ave','cos','dot','max'。
如果使用lambda/function,则应将张量列表作为输入
返回一个张量
新Keras
版本中的等效功能是什么(当模式为function/lambda时),以避免以下警告:
UserWarning: The `merge` function is deprecated and will be removed after 08/2017. Use instead layers from `keras.layers.merge`, e.g. `add`, `concatenate`, etc.
return merge([attention, sentence], mode=_normalize_attention, output_shape=(self.max_length, self.nr_hidden))
这是一种实现模型的奇怪方式。。。。(至少在keras 2…)
看起来您应该使用一个带有自定义函数的lambda层
def __call__(self, sent1, sent2):
def _outer(AB) #custom function
att_ji = K.batch_dot(AB[1], K.permute_dimensions(AB[0], (0, 2, 1)))
return K.permute_dimensions(att_ji, (0, 2, 1))
return Lambda(_outer,
output_shape=(self.max_length,self.max_length))([
self.model(sent1),
self.model(sent2)])
如果self.model(sent)
返回由keras层生成的张量,则此操作应该有效
现在,对于实际的合并层,在keras 2中有以下层:
- 连接(轴=…)(传感器列表)
- 添加()(listOfTensors)
- 乘法()
- ,包括一个点
层,该层“可能”与该功能相同
如果使用点图层:
return Dot()([self.model(sent1),self.model(sent2)])
这需要测试。keras中的点和批点很容易混淆 实现模型的方式有点奇怪。。。。(至少在keras 2…) 看起来您应该使用一个带有自定义函数的lambda层
def __call__(self, sent1, sent2):
def _outer(AB) #custom function
att_ji = K.batch_dot(AB[1], K.permute_dimensions(AB[0], (0, 2, 1)))
return K.permute_dimensions(att_ji, (0, 2, 1))
return Lambda(_outer,
output_shape=(self.max_length,self.max_length))([
self.model(sent1),
self.model(sent2)])
如果self.model(sent)
返回由keras层生成的张量,则此操作应该有效
现在,对于实际的合并层,在keras 2中有以下层:
- 连接(轴=…)(传感器列表)
- 添加()(listOfTensors)
- 乘法()
- ,包括一个点层,该层“可能”与该功能相同
return Dot()([self.model(sent1),self.model(sent2)])
这需要测试。keras中的点和批点很容易混淆