人工智能matlabmnist代码-Poisoning-Attacks-with-Back-gradient-Optimization:论文“

时间:2021-05-26 20:51:43
【文件属性】:
文件名称:人工智能matlabmnist代码-Poisoning-Attacks-with-Back-gradient-Optimization:论文“
文件大小:616KB
文件格式:ZIP
更新时间:2021-05-26 20:51:43
系统开源 人工智能matlab mnist代码通过反向梯度优化实现中毒攻击 Matlab代码以及该论文中描述的中毒攻击示例该代码包括针对Adaline,Logistic回归和针对MNIST数据集的小型多层感知器的攻击(使用数字1和7)。 用 要生成随机训练/验证拆分,请首先在“ MNIST_splits”文件夹中运行脚本createSplits.m 。 然后,用于对Adaline,逻辑回归和MLP进行攻击的脚本分别是testAttackAdalineMNIST.m , testAttackLRmnist.m和testAttackMLPmnist.m 。 引文 如果您将此存储库中的代码用作已发布的研究项目的一部分,请引用本文。 @inproceedings{munoz2017towards, title={{Towards Poisoning of Deep Learning Algorithms with Back-gradient Optimization}}, author={Mu{\~n}oz-Gonz{\'a}lez, Luis and Biggio, Battista and Demo
【文件预览】:
Poisoning-Attacks-with-Back-gradient-Optimization-master
----testMLP.m(354B)
----MNIST_splits()
--------createSplits.m(436B)
--------mnist_1_7.mat(625KB)
----reverseLR2.m(2KB)
----trainLR2.m(255B)
----LICENSE(1KB)
----getDerivativesMLP2.m(964B)
----sigmoid.m(51B)
----getDerivativesMLP.m(935B)
----testAttackMLPmnist.m(3KB)
----testAttackLRmnist.m(3KB)
----reverseAdaline.m(1KB)
----reverseMLP2.m(1KB)
----README.md(2KB)
----trainAdaline.m(300B)
----LRcost.m(75B)
----trainMLP.m(4KB)
----testAttackAdalineMNIST.m(4KB)

网友评论