联系我们
- 地 址:北京市海淀区北四环西路9号 ,主 营:人脸识别,活体检测,身份证识别,银行卡识别,名片识别,车牌识别,OCR识别等及智能识别技术。
- 电 话:13146317170 廖经理
- 传 真:
- 邮 箱:398017534@qq.com
几种机器学习分类模型
几种机器学习分类模型
KNN: 依赖数据,无数学模型可言。适用于可容易解释的模型。
对异常值敏感,容易遭到数据不均衡的影响。
Bayesian: 基于条件概率, 适用于不同维度之间相关性较小的时分,比拟容易解释。也合适增量锻炼,不用要再重算一遍。应用:渣滓邮件处置。
Decision Tree: 此模型更容易了解不同属性关于结果的影响水平(如在第几层)。能够同时处置不同类型的数据。但由于追踪结果只需求改动叶子节点的属性,所以容易遭到攻击。应用:其他算法的基石。
Random Forest: 随机森林是决策树的随机集成,一定水平上改善了其容易被攻击的弱点。适用于数据维度不太高(几十)又想到达较高精确性的时分。不需求调整太多参数,合适在不晓得适用什么办法的时分先用下。
SVM: SVM尽量坚持样本间的间距,抗攻击才能强,和RandomForest一样是一个能够首先尝试的办法。
对数几率回归:Logistic regression,不只能够输出结果还能够输出其对应的概率。拟合出来的参数能够明晰地看到每一个feature对结果的影响。但是实质上是一个线性分类器,特征之间相关度高时不适用。同时也要留意异常值的的影响。
Discriminat Analysis典型的是LDA,把高维数据投射到低维上,使数据尽可能别离。常常作为一个降维工具运用。但是留意LDA假定数据是正态散布的。
Neural Network. 精确来说还是一个黑箱,适用于数据量大的时分运用。
Ensemble-Boosting : 每次寻觅一个能够处理当前错误的分类器,最后再经过权重加和。益处是自带了特征选择,发现有效的特征。也便当去了解高维数据。
Ensemble-Bagging: 锻炼多个弱分类器投票处理。随机选取锻炼集,防止了过拟合。
Ensemble-Stacking: 以分类器的结果为输入,再锻炼一个分类器。普通最后一层用logistic Regression. 有可能过渡拟合,很少运用。
对异常值敏感,容易遭到数据不均衡的影响。
Bayesian: 基于条件概率, 适用于不同维度之间相关性较小的时分,比拟容易解释。也合适增量锻炼,不用要再重算一遍。应用:渣滓邮件处置。
Decision Tree: 此模型更容易了解不同属性关于结果的影响水平(如在第几层)。能够同时处置不同类型的数据。但由于追踪结果只需求改动叶子节点的属性,所以容易遭到攻击。应用:其他算法的基石。
Random Forest: 随机森林是决策树的随机集成,一定水平上改善了其容易被攻击的弱点。适用于数据维度不太高(几十)又想到达较高精确性的时分。不需求调整太多参数,合适在不晓得适用什么办法的时分先用下。
SVM: SVM尽量坚持样本间的间距,抗攻击才能强,和RandomForest一样是一个能够首先尝试的办法。
对数几率回归:Logistic regression,不只能够输出结果还能够输出其对应的概率。拟合出来的参数能够明晰地看到每一个feature对结果的影响。但是实质上是一个线性分类器,特征之间相关度高时不适用。同时也要留意异常值的的影响。
Discriminat Analysis典型的是LDA,把高维数据投射到低维上,使数据尽可能别离。常常作为一个降维工具运用。但是留意LDA假定数据是正态散布的。
Neural Network. 精确来说还是一个黑箱,适用于数据量大的时分运用。
Ensemble-Boosting : 每次寻觅一个能够处理当前错误的分类器,最后再经过权重加和。益处是自带了特征选择,发现有效的特征。也便当去了解高维数据。
Ensemble-Bagging: 锻炼多个弱分类器投票处理。随机选取锻炼集,防止了过拟合。
Ensemble-Stacking: 以分类器的结果为输入,再锻炼一个分类器。普通最后一层用logistic Regression. 有可能过渡拟合,很少运用。
上一条:移动端离线人脸识别算法
下一条:OCR识别技术