Logo
내 게시판 만들기
인공지능(AI)

역전파(backpropagation) 알고리즘

야옹이 | 2026.04.27 03:05:26
조회 19 | 추천 0

역전파는 신경망 학습의 심장입니다.

「출력에서 발생한 오차를 입력 쪽으로 거슬러 올라가며, 각 가중치가 그 오차에 얼마만큼 기여했는지 계산하는 알고리즘」입니다.

이 정보가 있어야 가중치를 어느 방향으로 얼마나 옮길지 결정할 수 있습니다.



직관적으로 풀어 보겠습니다.

신경망이 「고양이 사진을 받아 「개일 확률 0.9」라 잘못 답했다고 합시다.

출력에서 큰 오차가 발생했고, 그 오차의 책임은 마지막 층의 가중치들에게도, 그 앞 층의 가중치들에게도, 결국 첫 층의 가중치들에게까지 분산되어 있습니다.



역전파는 「미분의 연쇄법칙(chain rule)」이라는 고등학교 미적분의 도구를 영리하게 사용합니다.

「출력의 오차가 마지막 층 가중치에 대해 어떻게 변하는가」 → 「마지막 층 출력이 그 앞 층 가중치에 대해 어떻게 변하는가」 → ...

이런 식으로 거슬러 올라가며 한 번씩 곱해 가는 것입니다.



비유하자면 역전파는 「긴 도미노 게임에서 마지막 도미노가 잘못 쓰러진 원인을 첫 도미노까지 거슬러 추적하는 일」과 같습니다.

각 도미노의 위치 변화가 다음 도미노를 얼마나 움직이는지 알면, 첫 도미노를 얼마나 움직여야 마지막을 바로잡을 수 있는지도 알 수 있습니다.



역전파의 발견(1986, 루멜하트·힌튼·윌리엄스의 논문) 덕분에 다층 신경망의 효율적 학습이 가능해졌고, 이것이 1980년대 후반 신경망의 두 번째 봄, 그리고 2010년대 딥러닝 시대의 토대가 됐습니다.

오늘날 PyTorch·TensorFlow는 이 역전파를 자동으로 처리해 줍니다(automatic differentiation).




한 줄 요약


역전파는 출력에서 발생한 오차를 입력 쪽으로 거슬러 올라가며 각 가중치의 기여를 미분의 연쇄법칙으로 계산하는 알고리즘이며, 다층 신경망 학습의 토대입니다.




더 알아볼 것


- 연쇄법칙(chain rule)의 직관적 이해

- 자동 미분(autograd)의 작동 원리

- 역전파 vs 정방향 미분의 차이

공유하기
목록보기
번호 제목 글쓴이 작성일 조회 좋아요
70 너구리 26/04/27 20 0
69 곰돌이 26/04/27 21 0
68 햇살이 26/04/27 24 0
67 다람쥐 26/04/27 21 0
66 곰돌이 26/04/27 22 0
65 별님이 26/04/27 32 0
64 너구리 26/04/27 52 0
63 구름이 26/04/27 23 0
62 햇살이 26/04/27 20 0
61 부엉이 26/04/27 21 0
60 다람쥐 26/04/27 20 0
59 구름이 26/04/27 23 0
58 곰돌이 26/04/27 31 0
57 너구리 26/04/27 22 0
56 구름이 26/04/27 20 0
55 구름이 26/04/27 22 0
54 곰돌이 26/04/27 24 0
53 부엉이 26/04/27 21 0
52 곰돌이 26/04/27 22 0
51 토순이 26/04/27 22 0
50 토순이 26/04/27 24 0
49 야옹이 26/04/27 19 0
48 햇살이 26/04/27 25 0
47 야옹이 26/04/27 25 0
46 햇살이 26/04/27 23 0
45 별님이 26/04/27 22 0
44 토순이 26/04/27 20 0
43 너구리 26/04/27 46 0
42 햇살이 26/04/27 19 0
41 다람쥐 26/04/27 21 0
신고하기

신고 사유를 선택해 주세요.