batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现

时间:2020-05-09 04:35:46
【文件属性】:

文件名称:batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现

文件大小:790KB

文件格式:ZIP

更新时间:2020-05-09 04:35:46

batch/layer norma lization

batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现;运行无误,示例为mnist手写体识别


【文件预览】:
tf-layer-norm-master.zip
bnlstm-master.zip

网友评论

  • 这个代码github上有一模一样的,白浪费了积分
  • 代码蛮清晰的,我以为是直接套用官方的api写的,给作者点个赞吧
  • 代码很好,TensorFlow版本问题需要自己改一下
  • 新版的tensorflow需要修改一下使用。其实tensorflow官方提供的tf.contrib.rnn.LayerNormBasicLSTMCell,但是有问题,等待官方修复,官方提供的针对普通的全连卷积层的layer norm是可用的
  • 学习了,代码很清晰,赞!
  • 您好,麻烦请教一下运行时导入包出错怎么办,我用的是最新版的rensorflow