文件名称:mnist-explanation:在MNIST数据集上试用DNN的复制技术
文件大小:468KB
文件格式:ZIP
更新时间:2024-03-29 12:27:14
JupyterNotebook
简单说明 在该存储库中,我尝试实现G. Montavon等人所述的解释方法。 在他们的Methods for Interpreting and Understanding Deep Neural Networks中的文章[1] 神经网络实施 在他们的原始论文中,研究人员就使用哪种深度神经网络(DNN)提供了建议,以最大程度地提高其解释性。 我们将遵循以下建议: 根据需要使用尽可能少的完全连接的层,并通过辍学来训练这些层 大量使用求和池层,并且比其他类型的池层更喜欢它们 在线性层(卷积和完全连接)中,将偏差限制为零或负 因此,我使用的是非常简单的CNN:使用Leaky RELU激活功能,将2个卷积层与相关的平均池化层紧随其后的是3个完全连接的层。 对于输出,我使用批处理归一化层,后跟S型以输出每个类的概率。 我将Adam优化器(使用PyTorch默认值)与分类交叉熵损失函数一起使用了10个
【文件预览】:
mnist-explanation-main
----pic()
--------am.png(59KB)
--------simple_taylor.png(54KB)
--------lrp_denoised.png(49KB)
--------lrp.png(49KB)
--------sensitivity_analysis.png(43KB)
----utils.py(33KB)
----env.yml(8KB)
----.gitignore(2KB)
----README.md(5KB)
----mnist-explanation.ipynb(328KB)