Machine learning vowpal wabbit中带--lrq选项的一次性vs迭代模型

Machine learning vowpal wabbit中带--lrq选项的一次性vs迭代模型,machine-learning,quadratic,vowpalwabbit,matrix-factorization,quadratic-probing,Machine Learning,Quadratic,Vowpalwabbit,Matrix Factorization,Quadratic Probing,我正在使用vowpal-wabbit逻辑回归和低秩二次选择(--lrq)进行CTR预测。我用两种情况训练了模型 用命令一次性建立模型 vw-d-traning\u data\u all.vw--lrq ic2--链路后勤--功能丢失后勤--l2 0.0000000360911--l1 0.00000000103629--学习率0.3--保持关闭-b 28--无恒量-f最终模型 我将训练数据分成20块(按天计算),并以迭代方式构建模型(使用选项-I和--save_resume) 第一步:- vw-

我正在使用vowpal-wabbit逻辑回归和低秩二次选择(--lrq)进行CTR预测。我用两种情况训练了模型

  • 用命令一次性建立模型
  • vw-d-traning\u data\u all.vw--lrq ic2--链路后勤--功能丢失后勤--l2 0.0000000360911--l1 0.00000000103629--学习率0.3--保持关闭-b 28--无恒量-f最终模型

  • 我将训练数据分成20块(按天计算),并以迭代方式构建模型(使用选项-I和--save_resume)
  • 第一步:-

    vw-d-traning\u data\u day\u 1.vw--lrq-ic2--link logistic--loss\u function logistic--l20.0000000360911--l10.00000000103629--learning\u rate 0.3--hold\u off-b28--noconstant-f model\u 1

    然后

    `vw -d  traning_data_day_2.vw --lrq ic2  --link logistic  --loss_function logistic --l2 0.0000000360911 --l1 0.00000000103629  --learning_rate 0.3 --holdout_off  -b 28 --noconstant  --save_resume -i model_1 -f model_2`
    
    以此类推,最多迭代20次

    第一种方案运行良好,但在第二种方案中,预测在7-8次迭代后趋于1或0(仅)。我需要第二个场景工作,因为我想经常更新模型。通过vw hypersearch脚本优化l1、l2和学习率


    请帮我解决这个问题。我错过什么了吗?。我已尝试使用选项
    --lrqdropout.

    --save\u resume
    在第一步中丢失。@MartinPopel我已尝试使用--save\u resume选项在第一步中,但所有可能性都趋向于1或0。