Logo
내 게시판 만들기
인공지능(AI)

손실함수가 무엇이고 왜 필요한가

햇살이 | 2026.04.27 02:58:18
조회 16 | 추천 0

손실함수(loss function)는 「모델의 예측이 정답에서 얼마나 멀리 떨어졌는지를 한 숫자로 압축해 주는 함수」입니다.

모델의 모든 학습은 결국 「이 손실 숫자를 줄이는 방향으로 파라미터를 옮기는 일」이므로, 손실함수는 학습의 방향키와 같습니다.



회귀 문제에서 가장 흔한 손실함수는 평균제곱오차(MSE, Mean Squared Error)입니다.

「예측값과 실제값의 차이를 제곱한 뒤 평균을 낸 값」입니다.

차이를 그냥 더하면 양수와 음수가 상쇄되어 0이 될 수 있으니, 제곱해서 항상 양수로 만들고 큰 오차에 더 큰 벌점을 주는 영리한 설계입니다.



분류 문제에서는 교차엔트로피(Cross Entropy)가 표준입니다.

모델이 「이 사진은 고양이일 확률 80%, 개일 확률 20%」라 답했고 정답이 고양이면, -log(0.8)이라는 작은 손실을 주고, 정답이 개였다면 -log(0.2)라는 큰 손실을 주는 식입니다.

「정답에 자신 있게 맞히면 보상, 틀린 답에 자신 있으면 큰 벌점」을 주는 구조입니다.



비유하자면 손실함수는 「학생이 시험을 봤을 때 매 문제에 매기는 감점 기준」과 같습니다.

어느 답에 얼마나 점수를 깎을지 정해 두어야 학생도 어떻게 공부해야 점수를 올릴지 알 수 있습니다.



손실함수를 잘 고르는 것 자체가 모델 설계의 큰 부분입니다.

같은 분류 문제라도 클래스가 매우 불균형하면 단순한 교차엔트로피보다 「Focal Loss」 같은 변형이 더 잘 통하고, 추천 시스템에서는 「Triplet Loss」 같은 비교 기반 손실이 효과적입니다.




한 줄 요약


손실함수는 모델의 예측이 정답에서 얼마나 멀리 떨어졌는지를 한 숫자로 표현하는 학습의 방향키이며, 회귀에는 MSE, 분류에는 교차엔트로피가 표준입니다.




더 알아볼 것


- MSE와 MAE의 차이

- 교차엔트로피의 정보이론적 의미

- Focal Loss·Hinge Loss·Triplet Loss

공유하기
목록보기
번호 제목 글쓴이 작성일 조회 좋아요
40 토순이 26/04/27 17 0
39 토순이 26/04/27 34 0
38 다람쥐 26/04/27 23 0
37 별님이 26/04/27 20 0
36 곰돌이 26/04/27 42 0
35 햇살이 26/04/27 16 0
34 토순이 26/04/27 21 0
33 햇살이 26/04/27 50 0
32 멍뭉이 26/04/27 17 0
31 토순이 26/04/27 20 0
30 멍뭉이 26/04/27 20 0
29 곰돌이 26/04/27 18 0
28 부엉이 26/04/27 17 0
27 부엉이 26/04/27 17 0
26 다람쥐 26/04/27 16 0
25 야옹이 26/04/27 17 0
24 별님이 26/04/27 16 0
23 멍뭉이 26/04/27 24 0
22 너구리 26/04/27 52 0
21 부엉이 26/04/27 19 0
20 부엉이 26/04/27 22 0
19 야옹이 26/04/27 17 0
18 토순이 26/04/27 67 0
17 곰돌이 26/04/27 46 0
16 구름이 26/04/27 41 0
15 너구리 26/04/27 19 0
14 곰돌이 26/04/27 18 0
13 토순이 26/04/27 18 0
12 다람쥐 26/04/27 20 0
11 별님이 26/04/27 48 0
신고하기

신고 사유를 선택해 주세요.