文件名称:ActivationFunctions:在Tensorflow中从头开始实现激活功能
文件大小:178KB
文件格式:ZIP
更新时间:2024-06-15 03:02:54
deep-neural-networks tensorflow tensorflow-tutorials keras-tutorials keras-layer
在Keras中使用自定义图层的ActivationFunctions 激活函数是深度学习研究的重要领域。正在开发许多新的激活函数,其中包括生物启发性激活,包括其他在内的纯数学激活函数。 尽管有这样的进步,我们通常发现自己通常使用RELU和LeakyRELU而不使用/不考虑其他人。 在以下笔记本中,我展示了使用Keras和Tensorflow中的“自定义层”移植激活功能的难易程度! 链接到主笔记本-> 已实施的激活: 漏泄 参数反射 lu SElu 挥舞 格鲁 结构 src | |-- Activations.ipynb |-- utils |-- Utils.ipynb |-- utils.py references | |--Ref1 |--Refn 用法 git clone https://github.com/Agrover112/A
【文件预览】:
ActivationFunctions-master
----LICENSE(1KB)
----src()
--------Activation-Functions(GELU,SELU,ELU,LeakyReLU,PRELU).ipynb(280KB)
--------utils()
----references()
--------README.md(764B)
----README.md(2KB)