文件名称:Transformer-TTS:Pytorch实现的“基于变压器网络的神经语音合成”
文件大小:1.51MB
文件格式:ZIP
更新时间:2024-06-17 05:22:03
text-to-speech deep-learning pytorch tts transformer
变压器-TTS Pytorch实现 与众所周知的saco2seq模型(如tacotron)相比,该模型的训练速度快约3至4倍,并且合成语音的质量几乎相同。 通过实验确认,每步花费约0.5秒。 我没有使用波网声码器,而是使用tacotron的CBHG模型学习了后网络,并使用griffin-lim算法将频谱图转换为原始波。 要求 安装python 3 安装pytorch == 0.4.0 安装要求: pip install -r requirements.txt 数据 我使用了LJSpeech数据集,该数据集由成对的文本脚本和wav文件组成。 完整的数据集(13,100对)可在下载。 我将和用作预处理代码。 预训练模型 您可以 下载预训练的模型(AR模型为160K,Postnet为100K) 在检查点/目录中找到预训练的模型。 注意图 约15k步后出现对角线对齐。 以下注意图以16
【文件预览】:
Transformer-TTS-master
----.gitignore(119B)
----text()
--------__init__.py(2KB)
--------symbols.py(702B)
--------cleaners.py(2KB)
--------numbers.py(2KB)
--------cmudict.py(2KB)
----requirements.txt(106B)
----hyperparams.py(742B)
----synthesis.py(2KB)
----train_postnet.py(2KB)
----network.py(6KB)
----samples()
--------test.wav(429KB)
----LICENSE(1KB)
----train_transformer.py(4KB)
----utils.py(4KB)
----png()
--------mel_original.png(55KB)
--------attention_encoder()
--------mel_pred.png(50KB)
--------attention()
--------training_loss.png(113KB)
--------attention_decoder()
--------model.png(137KB)
--------attention_encoder.gif(34KB)
--------attention.gif(167KB)
--------alphas.png(99KB)
--------attention_decoder.gif(326KB)
----README.md(5KB)
----prepare_data.py(1KB)
----module.py(15KB)
----preprocess.py(5KB)