AdversarialExamples:希望打破AWS Rekognition的对抗示例

时间:2024-03-10 03:16:37
【文件属性】:

文件名称:AdversarialExamples:希望打破AWS Rekognition的对抗示例

文件大小:17.72MB

文件格式:ZIP

更新时间:2024-03-10 03:16:37

Python

AWS Rekognition的对抗示例 创建对抗性图像以欺骗AWS Rekognition的入门! 到目前为止,我可以创建基本的对抗图像来欺骗VGG-16。 我还可以创建基本的对抗图像来欺骗对象检测器YOLOv3: 在这里,我对几个不同的停车标志图像进行了YOLOv3对抗攻击,这些停车标志距离摄像机的距离各不相同。 我的攻击可以处理所有图像。 这些对抗性示例非常脆弱,如果将图像转换为JPEG等有损格式,则YOLOv3可以再次看到它们。


【文件预览】:
AdversarialExamples-master
----.gitignore(51B)
----vgg_experiments()
--------labels.py(33KB)
--------testing_functions.py(544B)
--------demo.gif(6.15MB)
--------create_adversarial.py(3KB)
--------.vscode()
--------common.py(909B)
--------predict.py(180B)
--------dispersion_reduction.py(2KB)
----README.md(774B)
----.vscode()
--------settings.json(85B)
----yolo-v3-adversarial()
--------stop-sign-adversarial-demo.gif(8.03MB)
--------pytorch_yolov3()
--------demo.gif(5.26MB)
--------setup_model.py(1KB)
--------create_adversarial.py(5KB)
--------predict.py(1KB)

网友评论