Optimization 预测性维护-如何将目标函数贝叶斯优化和梯度下降逻辑回归结合使用?

Optimization 预测性维护-如何将目标函数贝叶斯优化和梯度下降逻辑回归结合使用?,optimization,machine-learning,logistic-regression,gradient-descent,hyperparameters,Optimization,Machine Learning,Logistic Regression,Gradient Descent,Hyperparameters,我试图重现图中所示的问题 这是一个如何为硬盘故障建立预防性维护机器学习模型的示例。我真正不懂的部分是如何将贝叶斯优化与自定义目标函数和Logistic回归与梯度下降结合使用。需要优化的超参数是什么?问题的流程是什么 如前一篇文章所述,使用了贝叶斯优化[6] 以查找最佳超参数值。要实现的目标函数 在hyperparameter调优中优化的是以下测量分数 在验证集上: S=α*fnr+(1–α)*fpr 其中fpr和fnr是假阳性率和假阴性率 在验证集上获得。我们的目标是保持假阳性 速率低,因此我们

我试图重现图中所示的问题

这是一个如何为硬盘故障建立预防性维护机器学习模型的示例。我真正不懂的部分是如何将贝叶斯优化与自定义目标函数和Logistic回归与梯度下降结合使用。需要优化的超参数是什么?问题的流程是什么

如前一篇文章所述,使用了贝叶斯优化[6] 以查找最佳超参数值。要实现的目标函数 在hyperparameter调优中优化的是以下测量分数 在验证集上:

S=α*fnr+(1–α)*fpr

其中fpr和fnr是假阳性率和假阴性率 在验证集上获得。我们的目标是保持假阳性 速率低,因此我们使用alpha=0.2。因为验证集是 高度不平衡,我们发现标准分数像精度, F1成绩等…效果不好。事实上,使用这个自定义分数是非常困难的 对于模型获得良好的性能至关重要

请注意,我们仅在运行Bayesian时使用上述分数 优化。为了训练logistic回归模型,我们使用梯度 使用通常的脊损失函数下降

功能选择之前的我的数据帧:

index   date    serial_number   model   capacity_bytes  failure     Read Error Rate     Reallocated Sectors Count   Power-On Hours (POH)    Temperature     Current Pending Sector Count    age     yesterday_temperature   yesterday_age   yesterday_reallocated_sectors_count     yesterday_read_error_rate   yesterday_current_pending_sector_count  yesterday_power_on_hours    tomorrow_failure
0   77947   2013-04-11  MJ0331YNG69A0A  Hitachi HDS5C3030ALA630     3000592982016   0   0   0   4909    29  0   36348284.0  29.0    20799895.0  0.0     0.0     0.0     4885.0  0.0
1   79327   2013-04-11  MJ1311YNG7EWXA  Hitachi HDS5C3030ALA630     3000592982016   0   0   0   8831    24  0   36829839.0  24.0    21280074.0  0.0     0.0     0.0     8807.0  0.0
2   79592   2013-04-11  MJ1311YNG2ZD9A  Hitachi HDS5C3030ALA630     3000592982016   0   0   0   13732   26  0   36924206.0  26.0    21374176.0  0.0     0.0     0.0     13708.0     0.0
3   80715   2013-04-11  MJ1311YNG2ZDBA  Hitachi HDS5C3030ALA630     3000592982016   0   0   0   12745   27  0   37313742.0  27.0    21762591.0  0.0     0.0     0.0     12721.0     0.0
4   79958   2013-04-11  MJ1323YNG1EK0C  Hitachi HDS5C3030ALA630     3000592982016   0   524289  0   13922   27  0   37050016.0  27.0    21499620.0  0.0     0.0     0.0     13898.0     0.0

贝叶斯优化独立于逻辑回归内部。事实上,它并不关心你如何精确地计算目标函数-