文件名称:Attention-PyTorch:注意力机制实践
文件大小:8.93MB
文件格式:ZIP
更新时间:2024-05-31 16:59:03
Python
Attention分享 周知瑞@研发中心, Jun 20, 2018 (一)深度学习中的直觉 3 X 1 and 1 X 3 代替 3 X 3 LSTM中的门设计 生成对抗网络 Attention机制的本质来自于人类视觉注意力机制。人们视觉在感知东西的时候一般不会是一个场景从到头看到尾每次全部都看,而往往是根据需求观察注意特定的一部分。而且当人们发现一个场景经常在某部分出现自己想观察的东西时,人们会进行学习在将来再出现类似场景时把注意力放到该部分上。: 将更多的注意力聚焦到有用的部分,Attention的本质就是加权。但值得注意的是,同一张图片,人在做不同任务的时候,注意力的权重分布应该是不同的。 基于以上的直觉,Attention可以用于: 学习权重分布: 这个加权可以是保留所有分量均做加权(即soft attention);也可以是在分布中以某种采样策略选取部分分量(即hard att
【文件预览】:
Attention-PyTorch-master
----矩阵乘法.ipynb(4KB)
----.gitignore(19B)
----corpus()
--------amazon(4.3MB)
----README.pdf(3.95MB)
----models()
--------__init__.py(106B)
--------layer.py(1KB)
--------fasttext_attention.py(111B)
----LICENSE(11KB)
----.gitignore.swp(12KB)
----utils()
--------label.py(403B)
--------constant.py(191B)
--------vocabulary.py(1KB)
--------__init__.py(111B)
--------base.py(1KB)
--------text.py(426B)
----README.md(8KB)
----pic()
--------2_1.png(29KB)
--------1_3.png(1.4MB)
--------1_2.png(112KB)
--------4_5.png(543KB)
--------1_4(74KB)
--------1_4.jpg(18KB)
--------4_4.png(109KB)
--------1_10.png(265KB)
--------4_1.png(105KB)
--------1_6(30KB)
--------1_9.png(252KB)
--------4_2.png(91KB)
--------attention_meta.jpg(19KB)
--------4_3.png(113KB)
--------1_5(18KB)
--------1_7.png(55KB)
--------3_4(48KB)
--------1_8.png(443KB)
--------3_3.png(103KB)
--------3_2.png(119KB)
--------3_1.jpg(36KB)
--------1_1.jpg(28KB)