首先,XGBoost是属于决策树模型,原理是不断建树,最后将所有树结果加到一起。一般的调参顺序:n_estimator_nums;再调整剪枝参数(gamma,max_depth),最后列采样col、样本采样sub,eta(从大到小调整) 。主要思路:先使用默认参数调整,观察曲线,判断欠拟合 or 过拟合?调整对应参数。
eta:学习率参数,就是原理中说的缩减,保证每一颗树对于结果的影响不太大,从而保证模型的效果。更新叶子节点权重时,乘以该系数,避免步长过大。参数值越大,越可能无法收敛。把学习率 eta 设置的小一些,小学习率可以使得后面的学习更加仔细。 典型值为0.01-0.2。