机器学习-infineon-aurix_tc3xx_part1-usermanual-v1.5.0-2:2

时间:2021-07-01 20:12:04
【文件属性】:
文件名称:机器学习-infineon-aurix_tc3xx_part1-usermanual-v1.5.0-2:2
文件大小:1.16MB
文件格式:PDF
更新时间:2021-07-01 20:12:04
人工智能; 计算机视觉;  机器学习; 自然语言处理;  语音识别; 信息的操作。之后空洞卷积( Dialated /Atrous) 取代 了 Pooling 操作。空洞卷积的优点是它可以保持空 间分辨率。除了之前的几种方法,还有一种叫条件 随机场( Conditional Random Fields,CRFs) [23]的方法 来提升分割效果。 2.2 机器学习 机器学习的基本思想是通过计算机对数据的学 习来提升自身性能的算法。机器学习中需要解决的 最重要的 4 类问题是预测、聚类、分类和降维。 机器学习按照学习方法分类可分为: 监督学习、 无监督学习、半监督学习和强化学习。 2.2.1 监督学习 监督学习指的是用打好标签的数据训练预测新 数据的类型或值。根据预测结果的不同可以分为 2 类: 分类和回归。监督学习的典型方法有 SVM 和 线性判别。 回归问题指预测出一个连续值的输出,例如可 以通过房价数据的分析,根据样本的数据输入进行 拟合,进而得到一条连续的曲线用来预测房价。 分类问题指预测一个离散值的输出,例如根据 一系列的特征判断当前照片是狗还是猫,输出值就 是 1 或者 0。 2.2.2 无监督学习 无监督学习是在数据没有标签的情况下做数据 挖掘,无监督学习主要体现在聚类。简单来说是将 数据根据不同的特征在没有标签的情况下进行分 类。无监督学习的典型方法有 k-聚类及主成分分 析等。 k-聚类的一个重要前提是数据之间的区别可 以用欧氏距离度量,如果不能度量的话需要先转换 为可用欧式距离度量。 主成分分析是一种统计方法。通过使用正交变 换将存在相关性的变量,变为不存在相关性的变量, 转换之后的变量叫做主成分。其基本思想就是将最 初具有一定相关性的指标,替换为一组相互独立的 综合指标。 2.2.3 半监督学习 半监督学习根据字面意思可以理解为监督学习 和无监督学习的混合使用。事实上是学习过程中有 标签数据和无标签数据相互混合使用。一般情况下 无标签数据比有标签数据量要多得多。半监督学习 的思想很理想化,但是在实际应用中不多。一般常 见的半监督学习算法有自训练算法( Self-training) 、 基于图的半监督算法( Graph-based Semi-supervised Learning) 和半监督支持向量机( S3VM) 。 2.2.4 强化学习 随着 Alpha Go 的火热,强化学习成为了当前最 火热的研究领域之一,强化学习词热点居高不下。 强化学习是通过与环境的交互获得奖励,并通过奖 励的高低来判断动作的好坏进而训练模型的方法。 强化学习中探索和开发的权重高低是一个难题: 为 获得更好的奖励必须尽量选择能获得高奖励的动 作,但是为了获得更好的奖励,也必须要挖掘未知的 动作。 强化学习的基础来源于行为心理学。在 1911 年 Thorndike 提出了效用法则,即在环境中让人或者动 物感到舒服的动作,人或者动物会不断强化这一动 作。反之,如果人或者动物感觉到不舒服的行为,人 或者动物会减少这种动作。强化学习换言之是强化 得到奖励的行为,弱化受到惩罚的行为。通过试错 的机制训练模型,找到最佳的动作和行为获得最大 的回报。它模仿了人或者动物学习的模式,并且不 需要引导智能体向某个方向学习。智能体可以自主 学习,不需要专业知识的引导和人力的帮助。 基 础 的 强 化 学 习 算 法 有 使 用 表 格 学 习 的 q_learning[25],sarsa 以 及 使 用 神 经 网 络 学 习 的 DQN[26],直 接 输 出 行 为 的 Policy Gradients[27] 及 Actor Critic[28]等。强化学习算法应用到游戏领域取 得了不错的成果,在星际( 图 2) [29]和潮人篮球( 图 3) 的 AI 训练方面都取得了不错的成果。 图 2 星际争霸 图 3 潮人篮球 2.3 自然语言处理 自然语言处理( NLP ) [30]是指计算机拥有识别

网友评论