在迁移学习中,由于传统深度学习的学习能力弱,往往需要海量数据和反复训练才能修得泛化神功 。为了 “多快好省” 地通往炼丹之路,炼丹师们开始研究 Zero-shot Learning / One-shot Learning / Few-shot Learning。
Zero-shot Learning
Zero-shot Learning,零次学习。
成品模型对于训练集中没有出现过的类别,能自动创造出相应的映射:
X
→
Y
X \rightarrow Y
X→Y
One-shot Learning
应用SiamRPN
在跟踪阶段,作者将此任务视为单目标检测任务(one-shot detection),什么意思呢,就是把第一帧的BB视为检测的样例,在其余帧里面检测与它相似的目标。
One-shot Learning,一次学习。
训练集中,每个类别都有样本,但都只是少量样本。
Few-shot Learning
Few-shot Learning,少量学习。
也即 One-shot Learning 。
传统 Learning
即传统深度学习的海量数据 + 反复训练(炼丹模式)。
来自