文件名称:keras注意机制:Keras的注意机制实现
文件大小:2.96MB
文件格式:ZIP
更新时间:2024-02-26 03:35:15
deep-learning keras attention-mechanism keras-neural-networks attention-model
Keras注意机制 Keras的多对一注意力机制。 通过pip安装 pip install attention 导入源代码 from attention import Attention # [...] m = Sequential ([ LSTM ( 128 , input_shape = ( seq_length , 1 ), return_sequences = True ), Attention (), # <--------- here. Dense ( 1 , activation = 'linear' ) ]) 例子 在运行示例之前,请先
【文件预览】:
keras-attention-mechanism-master
----.github()
--------FUNDING.yml(23B)
--------workflows()
----attention()
--------__init__.py(67B)
--------attention.py(2KB)
----requirements.txt(47B)
----examples()
--------imdb.py(2KB)
--------readme()
--------find_max.py(2KB)
--------example-attention.py(3KB)
--------equations.png(136KB)
--------attention.gif(2.83MB)
----LICENSE(11KB)
----setup.py(439B)
----README.md(3KB)