机器学习:逻辑回归(OvR 与 OVO)

时间:2018-07-30 13:28:50   收藏:0   阅读:6125

一、基础理解

  1. OvR(One vs Rest),一对剩余的意思,有时候也称它为  OvA(One vs All);一般使用 OvR,更标准;
  2. OvO(One vs One),一对一的意思;

 

 

二、原理

 1)OvR

 

 2)OvO

 

 3)区别

 

 

三、scikit-learn 中的逻辑回归

  1. C=1.0:正则化的超参数,默认为 1.0;

  2. multi_class=‘ovr‘:scikit-learn中的逻辑回归默认支持多分类问题,分类方式为 ‘OvR‘;
  3. solver=‘liblinear‘、‘lbfgs‘、‘sag‘、‘newton-cg‘:scikit-learn中优化损失函数的方法,不是梯度下降法;
  4. 多分类中使用 multinomial (OvO)时,只能使用 ‘lbfgs‘、‘sag‘、‘newton-cg‘ 来优化损失函数;
  5. 当损失函数使用了 L2 正则项时,优化方法只能使用 ‘lbfgs‘、‘sag‘、‘newton-cg‘;
  6. 使用 ‘liblinear‘ 优化损失函数时,正则项可以为 L1 和 L2 ;

 1)例(3 种样本类型):LogisticRegression() 默认使用 OvR

 

 2)使用 OvO 分类

 

 3)使用所有分类数据

 

 4)分析

 

 

四、

 

评论(0
© 2014 mamicode.com 版权所有 京ICP备13008772号-2  联系我们:gaon5@hotmail.com
迷上了代码!