AdaBoost 作为一个机器学习模型,一定要有其训练误差上界。李航的《统计学习方法》里写的很完整,但是有个细节我提一下。
《统计学习方法》中的8.11是这样写的:
这里很多人以为是利用不等式计算的,这里不应该有等于号。实际上,大家忘了成立的基本条件就是a和b独立。而这里和并不独立,详情可见《统计学系方法》的8.2:
其实这个式子代入到8.11中便可得到等于号。
AdaBoost 作为一个机器学习模型,一定要有其训练误差上界。李航的《统计学习方法》里写的很完整,但是有个细节我提一下。
《统计学习方法》中的8.11是这样写的:
这里很多人以为是利用不等式计算的,这里不应该有等于号。实际上,大家忘了成立的基本条件就是a和b独立。而这里和并不独立,详情可见《统计学系方法》的8.2:
其实这个式子代入到8.11中便可得到等于号。