文件名称:mia:一个针对ML模型运行成员资格推断攻击的库
文件大小:23KB
文件格式:ZIP
更新时间:2024-05-22 13:20:23
machine-learning privacy adversarial-machine-learning Python
米亚 一个针对机器学习模型运行成员资格推断攻击(MIA)的库。 查看。 这些是针对培训数据隐私的攻击。 在MIA中,攻击者仅通过查询模型来尝试猜测在训练目标模型期间是否使用了给定的示例。 参见在论文中的更多内容。 当前,您可以使用该库来评估Keras或PyTorch模型对MIA的鲁棒性。 特征: 实现原始的阴影模型 可自定义,可以使用任何scikit学习的Estimator类对象作为阴影或攻击模型 经过Keras和PyTorch的测试 入门 您可以从PyPI安装mia: pip install mia 用法 Shokri等。 攻击 请参见。 阅读在攻击的细节文件。 让target_model_fn()返回目标模型体系结构作为类似于scikit的分类器。 攻击是白盒攻击,这意味着假定攻击者知道体系结构。 令NUM_CLASSES为分类问题的类数。 首先,攻击者需要在从原始数据分
【文件预览】:
mia-master
----MANIFEST.in(124B)
----README.rst(5KB)
----CONTRIBUTING.rst(724B)
----LICENSE.txt(1KB)
----mia()
--------estimators.py(10KB)
--------wrappers.py(11KB)
--------serialization.py(748B)
--------__init__.py(369B)
----examples()
--------cifar10.py(5KB)
----.travis.yml(109B)
----setup.cfg(22B)
----setup.py(2KB)
----Makefile(59B)
----docs()
--------source()
--------requirements.txt(395B)
--------Makefile(584B)
----tests()
--------test_wrappers.py(2KB)
--------conftest.py(511B)
--------test_estimators.py(9KB)
----.gitignore(897B)