文件名称:references
文件大小:19.03MB
文件格式:ZIP
更新时间:2024-04-03 18:15:59
参考 使用SoftPool完善激活下采样 提出一种基于softmax的池化方式,利用softmax函数计算感受野中每个元素的权重,再对感受野内元素进行加权求和,逐步反向传播时同样采用相同权重进行运算。 辍学作为贝叶斯近似:代表深度学习中的模型不确定性 本文通过理论推导证明有包含dropout的任意神经网络近似等价于深度高斯过程,从而推导引入在包含dropout的神经网络框架下计算输出不确定性只需要随机多次前向传播,样本方差即可描述不确定性。 NLNL:噪音标签的负面学习 由于标签通常可能存在噪声,因此基于传统标签的方式容易受到噪声影响。噪声严重样本的影响,以及利用传统正学习方式,在此基础上增加选择性否定学习和选择性正学习,通过设置阈值以筛选标签更可靠的样本。
【文件预览】:
references-master
----README.md(1KB)
----3.NLNL Negative Learning for Noisy Labels.pdf(734KB)
----Weight Uncertainty in Neural Networks.pdf(614KB)
----2.Dropout as a Bayesian Approximation Representing Model Uncertainty in Deep Learning.pdf(1002KB)
----1.Refining activation downsampling with SoftPool.pdf(17.52MB)