读论文系列:Deep transfer learning person re-identification
arxiv 2016 by Mengyue Geng, Yaowei Wang, Tao Xiang, Yonghong Tian
Transfer Learning
旧数据训练得到的分类器,在新的数据上重新训练,从而在新数据上取得比较好的表现,新数据与旧数据有相似的地方,但具有不同的分布。
Fine tuning一般步骤
这是InceptionV4的图示
- 移除Softmax分类层
- 换成与目标数据集输出维数相同的Softmax层
- 冻结靠近输入的卷积层
- 以较高的学习率训练分类层
- 以很低的学习率微调剩下的卷积层
论文核心模型
几个创新点:
- 对于CNN输出的两张图的特征,使用了相同的dropout而非各自独立的随机dropout
- 使用了二分类加多分类两种loss,二分类用于判断两张图中的人是否相同,多分类用于描述两张图中各自的人物ID
- 分两阶段进行Fine tune,先微调多分类,再联合二分类和多分类进行微调,避免多分类网络不稳定对二分类的影响
Unsupervised Transfer Learning
Self-training
- 将图片均分为两组(论文中是按摄像头划分的)
- 将B组中的每张图片,与A组中CNN输出相似度最高的图片归为一类,从而构造出多分类标签
- 喂入CNN训练
- 迭代多次
Co-training
- 由于CNN输出的图片相似度不一定真的可靠,存在噪音,因此Self-training效果没有特别好
- 寻找一个互补的模型,将特征映射到另一个子空间中
- 将B组中的每张图片,与A组中子空间相似度最高的图片归为一类,构造多分类标签
- 喂入CNN训练
- 迭代多次
Co-Model
- CNN计算得到深度特征: $$