posts - 195, comments - 34, trackbacks - 0, articles - 1
这是转载的东亮的笔记,原来他上课看书都会在博客里写笔记,我当时讲了最后一个线性分类器的分类能力。

模式识别理论 chapter 9 Algorithm-independent Machine Learning
 
  | 浏览数(269) | 评论数(0) | 2008-06-26

本章是同学自己讲述,有些观点可能有些问题.

 

1: 没有免费的午餐: 对特定问题的先验认识的条件下, 没有最优的分类器.

2: 丑小鸭定理: 对特定问题的先验认识的条件下,没有最优的特征表达.

3: occam' razor: 杀鸡焉用牛刀? 小的剃须刀就可以了,干吗用电锯??? keep it simple,stupid. 简单就是美.
    爱因斯坦:描述一个问题,解决一个问题,要尽可能的简单,但不要更简单.
    杜达:长期的进化过程, 使我们自身的"模式识别仪器"面临强大的自然选择的压力---要求执行更简单的计算,需要更少的神经元,花费更短的时间,等等,导致我们的分类器趋向简单的方案.

    沃伦.巴菲特:盖茨的成功不在于他做了什么,而在于他没做什么.
            一个人要专注做一件事情,理想太多了, 变得没有理想了.

    总之,我们的分类器要尽可能保持简单,因为,简单的通常是最有效的.这是经验!

 

4: 回归中的偏差和方差关系
    4.1)
    偏差小: 准确度高
    方差小: 推广性好.

    4.2) 
    曲线拟合的均方误差 = 偏差^2 + 方差. 与两者都有关系

5: 刀切法 和 自助法
     由于现实中,获取样本往往是比较困难的,怎么充分的利用好手里的现有的样本???
     刀切法: 降低样本中噪声的影响.每次统计模型的参数信息的时候, 去掉一部分样本.
     自助法: 把样本分为多个独立的自助集.相当于多次重复里利用手里的样本.

6: bagging & boosting & 基于查询的学习
     略去.
7:单个分割平面的能力
   也就是说 线性分类面的能力???

   一般位置: d维空间的点, 没有d+1个点落在d-1维子空间时,我们称这些点处于一般位置.
   eg: d=1,一维空间的点. 如果没有2两个点落在0维子空间(也就是处在同一个点上.)
   eg: d=2,2维空间的点. 如果没有3两个点落在1维子空间(也就是处在同一个线上.)

   正是由于线性分类器的弱点, 
    ---我们引入了非线性分类器 BP --- 改变分类面的线性关系为非线性
    ---我们引入了SVM --- 改变样本点的空间位置使之可以使用线性分类器.

   一般位置:




只有注册用户登录后才能发表评论。


网站导航: