• 吴恩达《深度学习》-课后测验-第一门课 (Neural Networks and Deep Learning)-Week 2 - Neural Network Basics(第二周测验 - 神经网络基础)

    时间:2022-11-10 11:38:15

    Week 2 Quiz - Neural Network Basics(第二周测验 - 神经网络基础)1. What does a neuron compute?(神经元节点计算什么?)【 】 A neuron computes an activation function followed by ...

  • 深度学习基础知识串烧

    时间:2022-10-11 16:21:15

    分享一些最近看到的深度学习文章,大概整理了一些基础知识作为入门,1.CNN模型具体分析(AlexNet网络结构)1.1 网络结构AlexNet有5个卷积层和3个全连接层C1:96×11×11×3 (卷积核个数/宽/高/深度)               34848个C2:256×5×5×48(卷积核...

  • 深度学习tensorflow基础mnist

    时间:2022-09-12 19:11:13

    mnist作为深度学习中的HelloWorld,该小工程详细描述了如何从零开始深度学习,代码详细,解释全面,需要的朋友可以参考下

  • 深度学习FPGA实现基础知识10(Deep Learning(深度学习)卷积神经网络(Convolutional Neural Network,CNN))

    时间:2022-09-12 13:16:41

    需求说明:深度学习FPGA实现知识储备 来自:http://blog.csdn.net/stdcoutzyx/article/details/41596663 说明:图文并茂,言简意赅。 自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN...

  • Deep Learning系统实训之一:深度学习基础知识

    时间:2022-09-12 13:08:40

    K-近邻与交叉验证 1 选取超参数的正确方法是:将原始训练集分为训练集和验证集,我们在验证集上尝试不同的超参数,最后保留表现最好的那个。 2 如果训练数据量不够,使用交叉验证法,它能帮助我们在选取最优超参数的时候减少噪音。 3 一旦找到最优的超参数,就让算法以该参数在测试集跑且只跑一次,并根据测试结...

  • 深度学习基础(一)LeNet_Gradient-Based Learning Applied to Document Recognition

    时间:2022-09-08 23:35:18

    作者:Yann LeCun,Leon Botton, Yoshua Bengio,and Patrick Haffner这篇论文内容较多,这里只对部分内容进行记录:以下是对论文原文的翻译:在传统的模式识别模型中,往往会使用手动设计的特征提取器从输入中提取相关信息并去除不相关的可变性,然后一个可训练的...

  • 深度学习基础系列(七)| Batch Normalization

    时间:2022-06-15 19:37:23

    BatchNormalization(批量标准化,简称BN)是近些年来深度学习优化中一个重要的手段。BN能带来如下优点:加速训练过程;可以使用较大的学习率;允许在深层网络中使用sigmoid这种易导致梯度消失的激活函数;具有轻微地正则化效果,以此可以降低dropout的使用。但为什么BN能够如此有效...

  • 深度学习基础系列(十)| Global Average Pooling是否可以替代全连接层?

    时间:2022-06-15 19:37:17

    GlobalAveragePooling(简称GAP,全局池化层)技术最早提出是在这篇论文(第3.2节)中,被认为是可以替代全连接层的一种新技术。在keras发布的经典模型中,可以看到不少模型甚至抛弃了全连接层,转而使用GAP,而在支持迁移学习方面,各个模型几乎都支持使用GlobalAverageP...

  • 深度学习基础系列(十一)| Keras中图像增强技术详解

    时间:2022-06-15 19:37:11

    在深度学习中,数据短缺是我们经常面临的一个问题,虽然现在有不少公开数据集,但跟大公司掌握的海量数据集相比,数量上仍然偏少,而某些特定领域的数据采集更是非常困难。根据之前的学习可知,数据量少带来的最直接影响就是过拟合。那有没有办法在现有少量数据基础上,降低或解决过拟合问题呢?答案是有的,就是数据增强技...

  • 深度学习基础(五)ResNet_Deep Residual Learning for Image Recognition

    时间:2022-06-15 19:37:29

    ResNet可以说是在过去几年中计算机视觉和深度学习领域最具开创性的工作。在其面世以后,目标检测、图像分割等任务中著名的网络模型纷纷借鉴其思想,进一步提升了各自的性能,比如yolo,Inception-v4等。ResNet通过重构模型对残差映射(Residualmapping)进行拟合,而非以往那样...

  • 深度学习基础系列(一)| 一文看懂用kersa构建模型的各层含义(掌握输出尺寸和可训练参数数量的计算方法)

    时间:2022-06-15 19:37:05

    我们在学习成熟网络模型时,如VGG、Inception、Resnet等,往往面临的第一个问题便是这些模型的各层参数是如何设置的呢?另外,我们如果要设计自己的网路模型时,又该如何设置各层参数呢?如果模型参数设置出错的话,其实模型也往往不能运行了。所以,我们需要首先了解模型各层的含义,比如输出尺寸和可训...

  • 深度学习基础系列(三)| sigmoid、tanh和relu激活函数的直观解释

    时间:2022-06-10 19:53:03

    常见的激活函数有sigmoid、tanh和relu三种非线性函数,其数学表达式分别为:sigmoid:y=1/(1+e-x)tanh:y=(ex-e-x)/(ex +e-x)relu:y=max(0,x)其代码实现如下:importnumpyasnpimportmatplotlib.pyplotas...

  • 机器学习&深度学习基础(tensorflow版本实现的算法概述0)

    时间:2022-06-01 22:06:28

    tensorflow集成和实现了各种机器学习基础的算法,可以直接调用。代码集:https://github.com/ageron/handson-ml监督学习1)决策树(DecisionTree)和随机森林决策树:决策树是一种树形结构,为人们提供决策依据,决策树可以用来回答yes和no问题,它通过树...

  • TensorFlow深度学习基础与应用实战高清视频教程

    时间:2022-04-26 00:49:43

    TensorFlow深度学习基础与应用实战高清视频教程,适合PythonC++C#视觉应用开发者,基于TensorFlow深度学习框架,讲解TensorFlow基础、图像分类、目标检测训练与测试以及后期在C++和C#的应用。视频目录如下:你能学到那些内容预览:TensorFlow深度学习基础与应用实...

  • Tensorflow深度学习之十二:基础图像处理之二

    时间:2022-04-18 03:39:47

    Tensorflow深度学习之十二:基础图像处理之二from:https://blog.csdn.net/davincil/article/details/76598474 首先放出原始图像:1、图像的翻转importtensorflowastfimportcv2#这里定义一个tensorflow读...

  • deeplearning.ai 神经网络和深度学习 week2 神经网络基础 听课笔记

    时间:2022-04-07 04:19:42

    1.Logistic回归是用于二分分类的算法。对于m个样本的训练集,我们可能会习惯于使用for循环一个个处理,但在机器学习中,是把每一个样本写成一个列向量x,然后把m个列向量拼成一个矩阵X。这个矩阵是nx*m大小,nx是每个样本的特征数量,m是样本个数,X.shape=(nx,m)。也可以把特征写成...

  • 深度学习基础系列(九)| Dropout VS Batch Normalization? 是时候放弃Dropout了

    时间:2021-12-05 20:01:17

    Dropout是过去几年非常流行的正则化技术,可有效防止过拟合的发生。但从深度学习的发展趋势看,BatchNormalizaton(简称BN)正在逐步取代Dropout技术,特别是在卷积层。本文将首先引入Dropout的原理和实现,然后观察现代深度模型Dropout的使用情况,并与BN进行实验比对,...

  • 算法工程师<深度学习基础>

    时间:2021-11-22 19:58:43

    <深度学习基础>卷积神经网络,循环神经网络,LSTM与GRU,梯度消失与梯度爆炸,激活函数,防止过拟合的方法,dropout,batchnormalization,各类经典的网络结构,各类优化方法1、卷积神经网络工作原理的直观解释https://www.zhihu.com/questio...

  • numpy--深度学习中的线代基础

    时间:2021-10-06 13:21:01

    参考自微信公众号--深度学习世界(http://mp.weixin.qq.com/s?__biz=MzI4MDMwMDM3NA==&mid=2247484616&idx=1&sn=096d818d5083243095119356c36657e8&chksm=ebbbd...

  • 【原创 深度学习与TensorFlow 动手实践系列 - 3】第三课:卷积神经网络 - 基础篇

    时间:2021-10-06 00:51:24

    【原创深度学习与TensorFlow动手实践系列-3】第三课:卷积神经网络-基础篇提纲:1.链式反向梯度传到2.卷积神经网络-卷积层3.卷积神经网络-功能层4.实例:卷积神经网络MNIST分类期待目标:1.清楚神经网络优化原理,掌握反向传播计算。2.掌握卷积神经网络卷积层的结构特点,关键参数,层间的...