【文件属性】:
文件名称:机器学习-infineon-aurix_tc3xx_part1-usermanual-v1.5.0-2:2
文件大小:1.16MB
文件格式:PDF
更新时间:2021-07-01 20:12:04
人工智能; 计算机视觉; 机器学习; 自然语言处理; 语音识别;
信息的操作。之后空洞卷积( Dialated /Atrous) 取代
了 Pooling 操作。空洞卷积的优点是它可以保持空
间分辨率。除了之前的几种方法,还有一种叫条件
随机场( Conditional Random Fields,CRFs) [23]的方法
来提升分割效果。
2.2 机器学习
机器学习的基本思想是通过计算机对数据的学
习来提升自身性能的算法。机器学习中需要解决的
最重要的 4 类问题是预测、聚类、分类和降维。
机器学习按照学习方法分类可分为: 监督学习、
无监督学习、半监督学习和强化学习。
2.2.1 监督学习
监督学习指的是用打好标签的数据训练预测新
数据的类型或值。根据预测结果的不同可以分为
2 类: 分类和回归。监督学习的典型方法有 SVM 和
线性判别。
回归问题指预测出一个连续值的输出,例如可
以通过房价数据的分析,根据样本的数据输入进行
拟合,进而得到一条连续的曲线用来预测房价。
分类问题指预测一个离散值的输出,例如根据
一系列的特征判断当前照片是狗还是猫,输出值就
是 1 或者 0。
2.2.2 无监督学习
无监督学习是在数据没有标签的情况下做数据
挖掘,无监督学习主要体现在聚类。简单来说是将
数据根据不同的特征在没有标签的情况下进行分
类。无监督学习的典型方法有 k-聚类及主成分分
析等。
k-聚类的一个重要前提是数据之间的区别可
以用欧氏距离度量,如果不能度量的话需要先转换
为可用欧式距离度量。
主成分分析是一种统计方法。通过使用正交变
换将存在相关性的变量,变为不存在相关性的变量,
转换之后的变量叫做主成分。其基本思想就是将最
初具有一定相关性的指标,替换为一组相互独立的
综合指标。
2.2.3 半监督学习
半监督学习根据字面意思可以理解为监督学习
和无监督学习的混合使用。事实上是学习过程中有
标签数据和无标签数据相互混合使用。一般情况下
无标签数据比有标签数据量要多得多。半监督学习
的思想很理想化,但是在实际应用中不多。一般常
见的半监督学习算法有自训练算法( Self-training) 、
基于图的半监督算法( Graph-based Semi-supervised
Learning) 和半监督支持向量机( S3VM) 。
2.2.4 强化学习
随着 Alpha Go 的火热,强化学习成为了当前最
火热的研究领域之一,强化学习词热点居高不下。
强化学习是通过与环境的交互获得奖励,并通过奖
励的高低来判断动作的好坏进而训练模型的方法。
强化学习中探索和开发的权重高低是一个难题: 为
获得更好的奖励必须尽量选择能获得高奖励的动
作,但是为了获得更好的奖励,也必须要挖掘未知的
动作。
强化学习的基础来源于行为心理学。在 1911 年
Thorndike 提出了效用法则,即在环境中让人或者动
物感到舒服的动作,人或者动物会不断强化这一动
作。反之,如果人或者动物感觉到不舒服的行为,人
或者动物会减少这种动作。强化学习换言之是强化
得到奖励的行为,弱化受到惩罚的行为。通过试错
的机制训练模型,找到最佳的动作和行为获得最大
的回报。它模仿了人或者动物学习的模式,并且不
需要引导智能体向某个方向学习。智能体可以自主
学习,不需要专业知识的引导和人力的帮助。
基 础 的 强 化 学 习 算 法 有 使 用 表 格 学 习 的
q_learning[25],sarsa 以 及 使 用 神 经 网 络 学 习 的
DQN[26],直 接 输 出 行 为 的 Policy Gradients[27] 及
Actor Critic[28]等。强化学习算法应用到游戏领域取
得了不错的成果,在星际( 图 2) [29]和潮人篮球( 图
3) 的 AI 训练方面都取得了不错的成果。
图 2 星际争霸
图 3 潮人篮球
2.3 自然语言处理
自然语言处理( NLP ) [30]是指计算机拥有识别