欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld。
技术交流QQ群:433250724,欢迎对算法、技术、应用感兴趣的同学加入
上解上一篇RBM(一)基本概念,本篇记叙一下RBM的模型结构,以及RBM的目标函数(能量函数),通过这篇就可以了解RBM到底是要求解什么问题。在下一篇(三)中将具体描述RBM的训练/求解方法,包括Gibbs sampling和对比散度DC方法。
RBM模型结构
因为RBM隐层和可见层是全连接的,为了描述清楚与容易理解,把每一层的神经元展平即可,见下图[7],本文后面所有的推导都采用下图中的标记来表示。
再重提一下,经典的RBM模型中的神经元都是binary的,也就是说上面图中的神经元取值都是{0,1}的。实际上RBM也可以做实数性的model,不过这一块可以先放一放,先来看binary的基本model。
RBM能量函数
RBM是一个能量模型(Energy based model, EBM),是从物理学能量模型中演变而来;能量模型需要做的事情就是先定义一个合适的能量函数,然后基于这个能量函数得到变量的概率分布,最后基于概率分布去求解一个目标函数(如最大似然)。RBM的过程如下:
我们现在有的变量是(v,h),包括隐层和可见层神经元;参数包括θ=(W,a,b)。能量函数定义:
如果写成向量/矩阵的形式,则为:
那么,可以得到变量(v,h)的联合概率分布是:
其中,Zθ称为归一化因子,作用是使得概率之和(或者积分)为1,形式为:
在上面所有算式中,下标θ都表示在参数θ=(W,a,b)下的表达,为了书写的简洁性,本文余下部分如果没有特殊指定说明,就省略下标θ了,但含义不变。
OK,当我们有了联合概率分布,如果想求观察数据(可见层)的概率分布P(v),则求边缘分布:
相对应的,如果想求隐层单元的概率分布P(h),则求边缘分布:
当然,我们不太可能直接计算Z,因为Z的求和中存在指数项种可能——2nv+nh种取值。接下来考虑条件概率,即可见层神经元状态给定时,(任意)隐藏层神经元状态为1的概率,即P(hk=1|v)。类似的也可以求P(vk=1|h),方法也是差不多的,下面就只对P(hk=1|v)进行描述。我们可以推导出:
以及
可以直接知道结果即可,证明可以跳过。这里我们可以看到,sigmoid是一种激励函数,因此才把RBM也叫做一种神经网络模型。
证:以下记h−k表示隐藏层神经元k以外的神经元。
因为假设同层神经元之间相互独立,所以有:
RBM目标函数
假设给定的训练集合是S={vi},总数是ns,其中每个样本表示为vi=(vi1,vi2,…,vinv),且都是独立同分布i.i.d的。RBM采用最大似然估计,即最大化
RBM的求解问题就是如何最大化似然估计,在下一篇中我会描述常用的求解方法:Gibbs Sampling以及对比散度方法,算是RBM的核心吧。本篇就到这里。
觉得有一点点价值,就支持一下哈!花了很多时间手打公式的说~更多内容请关注Bin的专栏
参考资料
[1] http://www.chawenti.com/articles/17243.html
[2] 张春霞,受限波尔兹曼机简介
[3] http://www.cnblogs.com/tornadomeet/archive/2013/03/27/2984725.html
[4] http://deeplearning.net/tutorial/rbm.html
[5] Asja Fischer, and Christian Igel,An Introduction to RBM
[6] G.Hinton, A Practical Guide to Training Restricted Boltzmann Machines
[7] http://blog.csdn.net/itplus/article/details/19168937
[8] G.Hinton, Training products of experts by minimizing contrastive divergence, 2002.
[9] Bengio, Learning Deep Architectures for AI, 2009