学习+科研+做项目 PyTorch最详细视频讲解

时间:2022-10-05 20:54:51


​PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】​​​​《PyTorch深度学习实践》完结合集​

​莫烦Python-PyTorch 神经网络​

​Pytorch 入门到精通全教程 卷积神经网络 循环神经网络​

学习+科研+做项目 PyTorch最详细视频讲解


更多相关资料请关注公众号:计算机视觉与图形学实战

​PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】​

目录(播放量41.6万)

P1.PyTorch环境的配置及安装(Configuration and Installation of PyTorch)【PyTorch教程】14:26

P2. Python编辑器的选择、安装及配置(PyCharm、Jupyter安装)【PyTorch教程】 12:42

P3 【FAQ】为什么torch.cuda.is_available返回False 05:53

P4.Python学习中的两大法宝函数(当然也可以用在PyTorch) 09:12

P5.PyCharm及Jupyter使用及对比 16:39

P6 PyTorch加载数据初认识 11:11

P7 Dataset类代码实战 25:17

P8. TensorBoard的使用(一) 16:31

P9. TensorBoard的使用(二) 11:16

P10. Transforms的使用(一) 18:28

P11. Transforms的使用(二) 08:03

P12 常见的Transforms(一) 18:20

P13 常见的Transforms(二) 21:24

P14 torchvision中的数据集使用 22:51

P15 DataLoader的使用 22:16

P16 神经网络的基本骨架-nn.Module的使用 15:57

P17 土堆说卷积操作(可选看) 26:37

P18 神经网络-卷积层 28:46

P19 神经网络-最大池化的使用 24:26

P20 神经网络-非线性激活 13:23

P21 神经网络-线性层及其他层介绍 23:22

P22 神经网络-搭建小实战和Sequential的使用 26:00

P23 损失函数与反向传播 31:58

P24 优化器(一) 17:38

P25 现有网络模型的使用及修改 23:29

P26 网络模型的保存与读取 16:49

P27 完整的模型训练套路(一) 27:34

P28 完整的模型训练套路(二) 22:22

P29 完整的模型训练套路(三) 05:22

P30 利用GPU训练(一) 15:21

P31 利用GPU训练(二) 08:11

P32 完整的模型验证套路 18:41

P33 【完结】看看开源项目 11:16

​《PyTorch深度学习实践》完结合集​

目录(播放量41.6万)

P1 1. Overview 1:18:48

P3 03.梯度下降算法 41:30

P5 05.用PyTorch实现线性回归 55:03

P7 07.处理多维特征的输入 43:41

P9 09.多分类问题 54:30

P11 11.卷积神经网络(高级篇) 59:49

P13 13.循环神经网络(高级篇) 1:06:56

​莫烦Python-PyTorch 神经网络​

目录(播放量73.7万)

P1 科普: 人工神经网络 VS 生物神经网络 04:40

P3 神经网络 : 梯度下降 (Gradient Descent in Neural Nets) 04:08

P5 1.1 Why? 03:56

P7 2.1 Numpy Torch 对比 08:55

P9 什么是激励函数 (深度学习)? 03:49

P11 3.1 Regression 回归 16:14

P13 3.3 快速搭建法 05:16

P15 3.5 批数据训练 09:32

P17 3.6 Optimizer 优化器 10:49

P19 4.1 CNN 卷积神经网络 25:32

P21 什么是 LSTM RNN 循环神经网络 (深度学习)? 03:55

P23 4.3 RNN 循环神经网络 回归 12:47

P25 4.4 AutoEncoder 自编码 11:48

P27 4.5 DQN 强化学习 19:09

P29 4.6 GAN 生成对抗网络 15:22

Pytorch 是动态 Dynamic 06:32

P32 什么是过拟合 (深度学习)? 04:23

P34 什么是 Batch Normalization 批标准化 05:09

​Pytorch 入门到精通全教程 卷积神经网络 循环神经网络​

目录(播放量6.9万)

P1 1. 1 机器学习和深度学习的介绍 13:02

P3 3. 3 感知机和多层神经网路的介绍 21:10

P5 5. 1Pytorch的安装方法 03:55

P7 7. 3Pytorch的入门操作(二) 20:23

P9 9. 5Pytorch的入门操作(三) 13:23

P11 11. 2 梯度下降的过程 27:24

P13 13. 4 手动实现线性回归 20:19

P15 15. 6 知识点回归 13:23

P17 17. 5 在GPU上执行程序 15:17

P19 19. 1 数据集类的使用 07:57

P21 21. 3Pytorch中自带数据的使用介绍 06:10

P23 23. 5 torchvision中transforms方法的使用 19:09

P25 25. 2 损失函数的学习 10:56

P27 27. 4 模型的评估 24:49

P29 29. 6 word embedding的理解 08:03

P31 31. 8 小结 09:53

P33 33. 2 collate fn的实现 07:36

P35 35. 4 ws的保存 16:55

P37 37. 1 RNN结果的介绍 14:59

P39 39. 3 LSTM的GRU的学习 32:21

P41 41. 5 LSTM api的介绍 44:52

P43 43. 7 文本情感分类模型的修改 42:43

P45 45. 9Pytorch的序列化容器 10:05

P47 47. 2 聊天机器人的介绍 25:19

P49 49. 4 项目流程介绍 12:26

P51 51. 6 词典的准备 18:05

P53 53. 8 相似问题的准备 18:06

P55 55. 1 文本分类的介绍 10:24

P57 57. 3 分类语料的准备 32:06

P59 59. 5 模型的评估 10:47

P61 61. 7 fasttext原理介绍 16:56

P63 63. 1 .复习 04:43

P65 65. 3 哈夫曼树和哈夫曼编码 26:09

P67 67. 5 seq2seq原理的认识 12:18

P69 69. 7 案例数据集的准备 28:37

P71 71. 9 编码器的完成 31:22

P73 73. 11 解码器的流程 24:19

P75 75. 13 模型的训练(二) 25:50

P77 77. 15 复习 33:51

P79 79. 17 seq2seq模型小结 11:33

P81 81. 19 闲聊机器人准备语料 51:06

P83 83. 21 dataset的准备 18:35

P85 85. 1 attention的介绍 21:24

P87 87. 3 attention weight的计算的结果 43:03

P89 89. 5 复习 56:09

P91 91. 7 解码的过程中使用attention 13:59

P93 93. 1 beam search的介绍 26:12

P95 95. 3 模型的优化方法 10:44

P97 97. 1 问答机器人的介绍 09:31

P99 99. 3 使用tfidf实现召回 57:50

P101 101. 5 BM25算法的介绍 13:14

P103 103. 7 复习 1:04:31

P105 105. 9 排序介绍 36:18

P107 107. 11 模型的搭建(一) 26:37

P109 109. 13 损失函数的模型的训练 30:21

P111 111. 15 封装的介绍 20:13