标签:tensorflow machine-learning conv-neural-network batch-normalization python
我有以下架构:
Conv1
Relu1
Pooling1
Conv2
Relu2
Pooling3
FullyConnect1
FullyConnect2
我的问题是,我应该在哪里应用批处理规范化?在TensorFlow中执行此操作的最佳功能是什么?
解决方法:
原始的batch-norm paper规定在ReLU激活之前使用批处理规范.但是有证据表明,激活后使用batchnorm可能更好.这是Francois Chollet对Keras GitHub的评论:
… I can guarantee that recent code written by Christian [Szegedy]
applies relu
before BN. It is still occasionally a topic of debate, though.
第二个问题:在tensorflow中,您可以使用高级tf.layers.batch_normalization
函数或低级tf.nn.batch_normalization
.
标签:tensorflow,machine-learning,conv-neural-network,batch-normalization,python 来源: https://codeday.me/bug/20191110/2015183.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。