tag DL

標籤
貢獻1
12
11:36 PM · Dec 21 ,2025

@DL / 博客 RSS 訂閱

mob64ca140ac564 - 深度學習計算每層參數數量公式

BN和conv pooling一樣是一個含有參數的層,其解決的問題是樣本間在隱含層的特徵數據分佈不均,提升訓練效率。 基本算法如下,首先對每一層的數據,都會計算其均值和方差,再將特徵數據分佈歸一化到均值為1,標準差為0。僅僅是這樣操作後會有一個硬傷:原本一些數據分佈可能都是大於0的,現在你歸一化到均值為1,一般情況下,神經元在ReLu都不會被激活!

歸一化 , DL , 深度學習計算每層參數數量公式 , 數據 , 數據分佈 , 人工智能 , 深度學習

收藏 評論