文件名称:global-self-attention-network:Pytorch实施的全球自我关注网络,这是视觉任务的全关注主干
文件大小:85KB
文件格式:ZIP
更新时间:2024-04-20 11:37:48
artificial-intelligence image-classification attention attention-mechanism self-attention
全球自我关注网络 ,该提出了一种全关注的视觉主干,该主干比具有较少参数和计算的卷积可以获得更好的结果。 他们使用先前发现的,进行了少量修改以获取更多收益(对查询不进行标准化),并与相对位置注意相对,并轴向计算了效率。 结果是一个非常简单的电路,由8个累加值,1个softmax和归一化组成。 安装 $ pip install gsa-pytorch 用法 import torch from gsa_pytorch import GSA gsa = GSA ( dim = 3 , dim_out = 64 , dim_key = 32 , heads = 8 , rel_pos_length = 256 # in paper, set to max(height, width). you can also turn this off by omit
【文件预览】:
global-self-attention-network-main
----setup.py(765B)
----.gitignore(2KB)
----LICENSE(1KB)
----.github()
--------workflows()
----README.md(1KB)
----gsa_pytorch()
--------__init__.py(40B)
--------gsa_pytorch.py(3KB)
----gsa.png(80KB)