当前位置:问答库>论文摘要

题目:基于凸损失的多类分类经验风险最小化方法的相容性

关键词:多类分类,;分类器,;相容性,;经验风险最小化,Tsybakov;噪声条件,Adaboost;算法

  摘要

在统计学习理论中分类算法的相容性是一个非常重要的概念. 一个满足相容性的分类器能保证只要取足够多的样本就能大致地重构出未知的分布. 我们考虑在多类分类中经验风险最小化算法的相容性, 我们所作的工作就是: 给出多类分类问题的分类误差和其凸风险后, 寻找适合的条件来建立两者之间数量关系, 与以往的结果不同, 我们的条件是直接用凸损失函数表达的. 同时我们也举例说明了一些常见的算法满足这些条件. 在多类分类的Tsybakov 噪声条件下, 我们给出了一个更紧的界. 我们将用上述关系来建立一种经验风险最小化算法的相容性,这种算法是将一些简单分类规则(或称弱分类器)进行加权组合而得出最终的分类的. 最后,我们给出一种多类分类的AdaBoost 算法,它基于多类分类的弱分类算法, 是二类分类AdaBoost 的直接推广. 它计算出的权重系数始终正数, 而已有的多类分类AdaBoost 算法AdaBoost.M1 所不能满足的. 我们将证明这种算法实质上是在经验风险最小化原则下极小化指数经验风险的梯度下降法.