Deep learning 是否有Keras Adam优化器的实现来支持Float16

Deep learning 是否有Keras Adam优化器的实现来支持Float16,deep-learning,yolo,adam,half-precision-float,Deep Learning,Yolo,Adam,Half Precision Float,我目前正在openvino toolkit上部署tiny-yolov3,为此我需要将我的模型转换为float16。但为此,我需要一个支持FP16的优化器。我试图修改SGD以支持fp16,但其精度太低。因此,我希望使用Adam,但它不支持FP16。至少在Keras实现中,我知道使用tf.Keras.mixed_precision可以实现这一点,但这需要tf2.0,而openvino目前还不完全支持tf2.0。所以,如果有人曾经面对过这个问题,并且能够帮助我解决这个问题,这将是非常有帮助的

我目前正在openvino toolkit上部署tiny-yolov3,为此我需要将我的模型转换为float16。但为此,我需要一个支持FP16的优化器。我试图修改SGD以支持fp16,但其精度太低。因此,我希望使用Adam,但它不支持FP16。至少在Keras实现中,我知道使用tf.Keras.mixed_precision可以实现这一点,但这需要tf2.0,而openvino目前还不完全支持tf2.0。所以,如果有人曾经面对过这个问题,并且能够帮助我解决这个问题,这将是非常有帮助的