强化学习-遥感数字图像处理:原理与方法

时间:2024-07-21 13:50:08
【文件属性】:

文件名称:强化学习-遥感数字图像处理:原理与方法

文件大小:2.94MB

文件格式:PDF

更新时间:2024-07-21 13:50:08

人工智能;  深度学习;  强化学习;  深度强化学习;

2.1 深度学习 DL的概念源于人工神经网 络(Artificial Neural Network,ANN).含多隐藏层的多层感知器(Multi- Layer Perceptron,MLP)是DL模 型 的 一 个 典 型 范 例.DL模 型 通 常 由 多 层 的 非 线 性 运 算 单 元 组 合 而 成.其将较低层的输出作为更高一层的输入,通过这 种方式自动地从大量训练数据中学习抽象的特征表 示,以发现数据的分布式特征[28].与浅层网络相比, 传统的多隐藏层网络模型有更好的特征表达能力, 但由于计算能力不足、训练数据缺乏、梯度弥散等原 因,使其一直无法取得突破性进展.直到2006年,深 度神 经 网 络 的 研 究 迎 来 了 转 机.Hinton等 人[29]提 出了一种训练深层神经网络的基本原则:先用非监 督学习对网络逐层进行贪婪的预训练,再用监督学 习对整个网络进行微调.这种预训练的方式为深度 神经网络提供了较理想的初始参数,降低了深度神 经网络的优化难度.此后几年,各种DL模型被相继 提出.包 括 堆 栈 式 自 动 编 码 器[30-31](Stacked Auto- Encoder,SAE)、限 制 玻 尔 兹 曼 机[32-33](Restricted Boltzmann Machine,RBM)、深 度 信 念 网 络[33-34] (Deep Belief Network,DBN)、循 环 神 经 网 络 [35-36] (Recurrent Neural Network,RNN)等. 随着训练数据的增长和计算能力的提升,卷积 神经网络(Convolutional Neural Network,CNN)开 始在各领域中得到广泛 应 用.Krizhevsky等 人 [2]在 2012年提出了 一 种 称 为 AlexNet的 深 度 卷 积 神 经 网络,并在当年的ImageNet图像分类竞赛中,大幅 度降低了图像识别的top-5错误率.此后,卷积神经 网络朝着以下4个方向迅速发展: (1)增加 网 络 的 层 数.在2014年,视 觉 几 何 组 (Visual Geometry Group,VGG)的 Simonyan等 人[37]提出了VGG-Net模型,进一步降低了图像识 别的错误率.He等人[38]提出了一种扩展深度 卷 积 神经网络的高效方法; (2)增加 卷 积 模 块 的 功 能.Lin等 人[39]利 用 多 层感知卷积层替代传统的卷积操作,提出了一种称 为Network in Network(NIN)的深度卷积网络模型. Szegedy等人 [40]在现有网络模型中加入一种新颖的 Inception结构,提出了NIN的改进版本GoogleNet, 并在2014年取得了ILSVRC物体检测的冠军; (3)增加网络层数和卷积模块功能.He等人[41] 提出了深度残差网络(Deep Residual Network,DRN), 并在2015年取得了ILSVRC物体检测和物体识别 的双料冠军.Szegedy等 人 [42]进 一 步 将Inception结 构与DRN相结合,提出了基于Inception结构的深 度 残 差 网 络(Inception Residual Network,IRN). 此后,He等人[43]提 出 了 恒 等 映 射 的 深 度 残 差 网 络 (Identify Mapping Residual Network,IMRN),进 一步提升了物体检测和物体识别的准确率; (4)增加 新 的 网 络 模 块.向 卷 积 神 经 网 络 中 加 入循 环 神 经 网 络[44](Recurrent Neural Network, RNN)、注意力机制[45](Attention Mechanism,AM) 等结构. 2.2 强化学习 RL是一种 从 环 境 状 态 映 射 到 动 作 的 学 习,目 31期 刘 全等:深度强化学习综述


网友评论