文件名称:feedback-transformer-pytorch:Pytorch中反馈变压器的实现
文件大小:8KB
文件格式:ZIP
更新时间:2024-03-25 12:13:57
deep-learning memory transformer attention-mechanism artifiical-intelligence
反馈变压器-Pytorch 在Pytorch中简单实现 。 通过使每个令牌可以随时访问所有先前层的表示形式,它们对Transformer-XL有所改进。 这是通过将所有层的输出聚合到一个共享的内存中来实现的,跨每个层的令牌可以在每个时间步参与该共享的内存。 主要缺点是训练时间长,这是由于其不平行的性质。 但是我认为我可以将其构建为对该工作线的进一步探索和研究。 我还随意添加了一些增强功能,包括预规范化,GLU门控前馈以及简化的T5相对位置嵌入。 安装 $ pip install feedback-transformer-pytorch 用法 import torch from feedback_transformer_pytorch import FeedbackTransformer model = FeedbackTransformer ( num_tokens = 200
【文件预览】:
feedback-transformer-pytorch-main
----setup.py(876B)
----.gitignore(2KB)
----LICENSE(1KB)
----.github()
--------workflows()
----README.md(3KB)
----feedback_transformer_pytorch()
--------__init__.py(90B)
--------feedback_transformer_pytorch.py(9KB)