Logo
내 게시판 만들기
인공지능(AI)

배치 정규화(batch normalization)

부엉이 | 2026.04.27 03:05:29
조회 21 | 추천 0

배치 정규화(BatchNorm)는 2015년 구글의 세르게이 이오페와 크리스천 세게디가 제안한 기법으로, 「각 층의 입력을 매 배치마다 평균 0·표준편차 1로 정규화하는」 방식입니다.

이 단순한 아이디어가 깊은 신경망 학습을 극적으로 안정시켰습니다.



배경에는 「내부 공변량 변화(internal covariate shift)」라는 문제가 있습니다.

신경망의 깊은 층은 앞 층의 출력을 입력으로 받는데, 학습이 진행되면서 앞 층의 출력 분포가 계속 바뀝니다.

깊은 층 입장에서는 매번 다른 분포의 입력에 적응해야 하니 학습이 느리고 불안정해집니다.



BatchNorm은 매 층의 입력을 「오늘 모인 미니배치의 평균과 표준편차」로 정규화해 분포를 일정하게 유지해 줍니다.

비유하자면 「학생들에게 매번 다른 양의 음식을 주는 대신, 매번 같은 양의 식판으로 통일해 주는 일」과 같습니다.



BatchNorm의 효과는 극적입니다.

학습 속도가 빨라지고, 더 큰 학습률을 안전하게 쓸 수 있으며, 일종의 정규화 효과까지 더해져 드롭아웃의 필요성을 일부 대체합니다.

CNN에서는 거의 표준으로 자리잡았습니다.



단점도 있습니다.

배치 크기가 너무 작으면(1~4) 통계 추정이 불안정해 효과가 떨어집니다.

그래서 작은 배치 환경에서는 LayerNorm(층마다 정규화), GroupNorm(그룹별 정규화) 같은 대안이 쓰입니다.

특히 Transformer 계열은 LayerNorm을 표준으로 씁니다.




한 줄 요약


BatchNorm은 매 층의 입력을 미니배치 통계로 정규화해 학습을 빠르고 안정적으로 만듭니다.

Transformer는 LayerNorm을, 작은 배치에서는 GroupNorm을 대신 씁니다.




더 알아볼 것


- LayerNorm vs BatchNorm — Transformer가 선택한 길

- RMSNorm — Llama가 채택한 더 단순한 변형

- BN의 학습/추론 모드 전환

공유하기
목록보기
번호 제목 글쓴이 작성일 조회 좋아요
70 너구리 26/04/27 20 0
69 곰돌이 26/04/27 21 0
68 햇살이 26/04/27 23 0
67 다람쥐 26/04/27 21 0
66 곰돌이 26/04/27 22 0
65 별님이 26/04/27 32 0
64 너구리 26/04/27 51 0
63 구름이 26/04/27 23 0
62 햇살이 26/04/27 20 0
61 부엉이 26/04/27 21 0
60 다람쥐 26/04/27 19 0
59 구름이 26/04/27 22 0
58 곰돌이 26/04/27 31 0
57 너구리 26/04/27 22 0
56 구름이 26/04/27 19 0
55 구름이 26/04/27 21 0
54 곰돌이 26/04/27 24 0
53 부엉이 26/04/27 21 0
52 곰돌이 26/04/27 21 0
51 토순이 26/04/27 22 0
50 토순이 26/04/27 24 0
49 야옹이 26/04/27 18 0
48 햇살이 26/04/27 25 0
47 야옹이 26/04/27 25 0
46 햇살이 26/04/27 22 0
45 별님이 26/04/27 22 0
44 토순이 26/04/27 20 0
43 너구리 26/04/27 46 0
42 햇살이 26/04/27 19 0
41 다람쥐 26/04/27 20 0
신고하기

신고 사유를 선택해 주세요.