新浪博客

集成学习之Adaboost算法损失函数优化

2017-09-13 10:04阅读:
在集成学习原理小结中,我们讲到了集成学习按照个体学习器之间是否存在依赖关系可以分为两类,第一个是个体学习器之间存在强依赖关系,另一类是个体学习器之间不存在强依赖关系。前者的代表算法就是是boosting系列算法。在boosting系列算法中, Adaboost是最著名的算法之一。Adaboost既可以用作分类,也可以用作回归。本文就对Adaboost算法做一个总结。
1、回顾boosting算法的基本原理:

    1)学习误差率e
    2) 弱学习器权重系数α' role='presentation'> 集成学习之Adaboost算法损失函数优化
    3)样本权重D
    4) 结合策略
2、Adaboost算法的基本思路:
    我们这里讲解Adaboost是如何解决上一节这4个问题的。
    假设我们的训练集样本是
T={(x,y1),(x2,y2),...(xm,ym)}' role='presentation'> 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化
集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化
    训练集的在第k个弱学习器的输出权重为
D(k)=(wk1,wk2,...wkm);w1i=1m;i=1,2...m' role='presentation'> 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化 集成学习之Adaboost算法损失函数优化

我的更多文章

下载客户端阅读体验更佳

APP专享