文件名称:vit-explain:视觉变压器的可解释性
文件大小:3.87MB
文件格式:ZIP
更新时间:2024-05-21 18:30:03
deep-learning pytorch transformer explainable-ai vision-transformer
视觉变形金刚的可解释性(在PyTorch中) 该存储库实现了视觉变形金刚中可解释性的方法。 另请参见 目前已实施: 注意卷展栏。 梯度注意卷展栏,用于班级特定的解释性。 这是我们进一步建立和改进“注意”卷展的尝试。 TBD注意流程正在进行中。 包括一些调整和技巧以使其正常工作: 不同的注意头融合方法 消除最低的关注。 用法 从代码 from vit_grad_rollout import VITAttentionGradRollout model = torch . hub . load ( 'facebookresearch/deit:main' , 'deit_tiny_patch16_224' , pretrained = True ) grad_rollout = VITAttentionGradRollout ( model , discard_ratio = 0
【文件预览】:
vit-explain-main
----vit_grad_rollout.py(2KB)
----Readme.md(4KB)
----LICENSE(1KB)
----vit_explain.py(3KB)
----vit_rollout.py(2KB)
----examples()
--------both_attention_rollout_0.000_mean.png(89KB)
--------dogbird.png(94KB)
--------both_attention_rollout_0.950_max.png(88KB)
--------grad_rollout_87_0.000_max.png(90KB)
--------grad_rollout_161_0.900_max.png(91KB)
--------both_discard_ratio.gif(943KB)
--------dogbird_grad_rollout_161_0.900_max.png(82KB)
--------input.png(102KB)
--------plane_discard_ratio.gif(841KB)
--------both_attention_rollout_0.000_min.png(89KB)
--------grad_rollout_161_0.500_max.png(91KB)
--------dogbird_attention_rollout_0.900_max.png(92KB)
--------both_grad_rollout_243_0.900_max.png(88KB)
--------plane_attention_rollout_0.000_mean.png(75KB)
--------both.png(88KB)
--------plane_attention_rollout_0.900_max.png(72KB)
--------both_attention_rollout_0.900_max.png(89KB)
--------plane2_attention_rollout_0.000_mean.png(74KB)
--------plane2_attention_rollout_0.900_max.png(68KB)
--------plane.png(85KB)
--------both_attention_rollout_0.990_max.png(87KB)
--------plane_attention_rollout_0.900_min.png(74KB)
--------plane_attention_rollout_0.000_max.png(76KB)
--------plane_attention_rollout_0.000_min.png(74KB)
--------plane2.png(75KB)
--------dogbird_grad_rollout_87_0.900_max.png(80KB)
--------both_grad_rollout_282_0.900_max.png(87KB)
--------grad_rollout_161_0.000_max.png(91KB)
--------dogbird_attention_rollout_0.000_mean.png(93KB)