Batch Normalization์ ๋ณดํต activation layer ์ ์ ์ฌ์ฉ๋์ด ๋คํธ์ํฌ ์ฐ์ฐ ๊ฒฐ๊ณผ๊ฐ ์ํ๋ ๋ฐฉํฅ์ ๋ถํฌ๋๋ก ๋์ค๋ ๊ฒ์ ๋ชฉ์ ์ผ๋ก ํ๋ค.
ย
Batch Normalization ๋ฐฉ๋ฒ
- mini-batch์์์ ํ๊ท ์ ๊ณ์ฐํ ํ ๋ชจ๋ mini-batch๋ง๋ค ํ๊ท ๊ณผ ๋ถ์ฐ์ ๊ฐ๊ฐ ๊ณ์ฐ
- ํ๊ท ๊ณผ ๋ถ์ฐ์ผ๋ก Normalize
- ๋ค์ ์ถ๊ฐ์ ์ธ scaling(), shifting factor()๋ฅผ ์ฌ์ฉ
ย
ํน์ง
- gradient๊ฐ ๊ฐ์ ๋์ด ํ์ต์ด ์๋๊ฒ ๋ง๋ค์ด์ค๋ค.
- Weight์ ์ด๊ธฐํ์ ์์กดํ์ง ์๋๋ค.
- Regularization์ ์ญํ ์ ํ์ฌ Overfitting์ ๋ง์์ค๋ค.
- Learning rate ๊ฐ ๋์๋ ์ฌ์ฉ ๊ฐ๋ฅํ๋ค.
- train data๋ batch์ mean์ ์ด์ฉํ๊ณ , test data๋ train์ ๊ฑฐ์น ํ ์ ์ฒด data์ mean๋ฅผ ์ด์ฉํด ์ ๊ทํ๋ฅผ ํ๋ค.
ย
ย
๋
ผ๋ฌธ์ ๋ฆฌ ์ฐธ๊ณ ์๋ฃ
ย
ย
ย