论文笔记 《Large-scale Learning with SVM and Convolutional for Generic Object Categorization》

一句话概括,用CNN作为特征提取器,然后连接上一个Guassian Kernel SVM作为强分类器。
出处:是LeCun在CVPR06的一篇论文

简介

核心思想:CNN和SVM的互补

  • SVM的优点
    1. 选择合适的核函数后,在训练集上几乎完美地进行分类
    2. 损失函数是凸的
    3. 最大分类间隔准则下加强了稀疏性,模型泛化能力强
    4. 选定了核函数后,几乎没有需要调的参
  • SVM的缺点
    1. 训练很贵,尤其是样本量大(10^5到10^6的量级)和特征维度比较高(10^4量级)的时候。
    2. 常规的核函数,比如Guassian Kernel,如果以原始像素作为特征,无法提取到好的(光照、姿势等)不变性信息

作者认为用CNN作为特征提取器能够很好地弥补SVM的缺点。

Combine CNN+SVM

思想其实很简单粗暴,跟RCNN很像(或者应该反过来说才比较合适?):

  1. 训练一个CNN
  2. 摘掉CNN最后的loss层,作为特征提取器
  3. 用CNN提取到的特征,训练了一个Guassian Kernel SVM

附上使用的CNN的结构:

(06的CNN比起现在的CNN来说真是太小了,只有约9w个可训练的参数)

实验


有两个数据集,NORB和jittered-clustered。
在jittered-clustered上的结果如下图:

训练,测试时间均有提高,效果也有改善。

很久没有更新网站,发现多了不少评论和问题,无法一一回复,如果现在仍有问题请再次留言 :) 2016.03.29