透镜的SAG指什么SAGabc指的是什么的缩写写

版权声明:本文为博主原创文章遵循 版权协议,转载请附上原文出处链接和本声明

solver参数决定了我们对逻辑回归损失函数的优化方法,有4种算法可以选择分别是:

a) liblinear:使用了开源的liblinear库实现,内部使用了坐标轴下降法来迭代优化损失函数

b) lbfgs:拟牛顿法的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代優化损失函数

c) newton-cg:也是牛顿法家族的一种,利用损失函数二阶导数矩阵即海森矩阵来迭代优化损失函数

d) sag:即随机平均梯度下降,是梯度丅降法的变种和普通梯度下降法的区别是每次迭代仅仅用一部分的样本来计算梯度,适合于样本数据多的时候

我要回帖

更多关于 abc指的是什么的缩写 的文章

 

随机推荐