简单的举个例子:一张表有两个变量,一个是体重kg,一个是身高cm。假设一般情况下体重这个变量均值为60(kg),身高均值为170(cm)。1,这两个变量对应的单位不一样,同样是100,对于身高来说很矮,但对于体重来说已经是超重了。2,单位越小,数值越大,对结果的影响也越大,譬如170cm=1.7m。 简单讲,归一化的目的是可以用数值来直接进行比较,如果不归一化由于变量特性不同,同样加10,代表的意义不一样。
相关文章
- Normalization
- Deep Learning 27:Batch normalization理解——读论文“Batch normalization: Accelerating deep network training by reducing internal covariate shift ”——ICML 2015
- 深度学习原理与框架- batch_normalize(归一化操作)
- 深度学习 Batch Normalization 论文笔记
- 【论文阅读总结】Batch Normalization总结
- 数据归一化Feature Scaling
- 系统学习深度学习(十三)--Batch Normalization
- normalization归一化
- Batch Normalization原理及其TensorFlow实现——为了减少深度神经网络中的internal covariate shift,论文中提出了Batch Normalization算法,首先是对”每一层“的输入做一个Batch Normalization 变换
- 对python3 一组数值的归一化处理方法详解