Python keras的Kaiming初始化

Python keras的Kaiming初始化,python,tensorflow,machine-learning,keras,deep-learning,Python,Tensorflow,Machine Learning,Keras,Deep Learning,我的模型层正在使用relu激活功能。我使用he_uniform作为内核初始值设定项,但是我看到kaiming初始化的结果比he_uniform更好。我使用的是keras,keras没有kaiming初始值设定项,我如何实现它?这种混淆源于命名约定,区别在于使用名字或姓氏命名。基本上,本文中提出的初始化方法是由何开明合著的。但是,框架实现不同 Tensorflow通过Keras后端使用名称Heinitilization。Torch使用Kaiminginitilization作为方法名 事实上,这同

我的模型层正在使用relu激活功能。我使用he_uniform作为内核初始值设定项,但是我看到kaiming初始化的结果比he_uniform更好。我使用的是keras,keras没有kaiming初始值设定项,我如何实现它?

这种混淆源于命名约定,区别在于使用名字或姓氏命名。基本上,本文中提出的初始化方法是由何开明合著的。但是,框架实现不同

Tensorflow通过Keras后端使用名称
He
initilization。Torch使用
Kaiming
initilization作为方法名

事实上,这同样适用于Glorot/Xavier初始化。见Xavier Glorot合著


在这里,Tensorflow via Keras使用姓
Glorot
,而Torch使用名
Xavier

Lol。Keras没有,因为它已经有了。您提到的初始化方法是由He Kaiming合著的,因此基本上您所述的两种方法是完全相同的。看@null天哪,没错,我觉得自己很傻。这与你无关。这是因为不同的框架将其命名为不同的。Tensorflow via keras使用“He”,Torch使用“Kaiming”作为名称。我会提供答案。