Logo
내 게시판 만들기
인공지능(AI)

과적합(overfitting)과 과소적합(underfitting)

다람쥐 | 2026.04.27 02:58:20
조회 23 | 추천 0

과적합과 과소적합은 머신러닝의 두 대표적 실패 양상입니다.

과적합은 「학습 데이터에 너무 잘 맞춰서 새 데이터에는 약한 상태」, 과소적합은 「학습 데이터에도 잘 맞히지 못하는 상태」를 가리킵니다.



비유로 풀자면 과적합은 「시험 문제집의 답을 통째로 외운 학생」과 같습니다.

푸는 문제는 100점이지만 새로운 문제는 한 문제도 못 풉니다.

과소적합은 「공부를 충분히 안 한 학생」과 같습니다.

풀던 문제도, 새 문제도 모두 못 풉니다.



두 문제는 서로 반대편에 있어 「적당한 중간」을 찾는 일이 모델링의 핵심입니다.

모델을 너무 단순하게 만들면 과소적합, 너무 복잡하게 만들면 과적합이 옵니다.

이 균형점을 「편향-분산 트레이드오프(bias-variance tradeoff)」라 부릅니다.



과적합을 줄이는 대표적 방법은 다음과 같습니다.

첫째, 데이터를 더 모은다.

둘째, 모델을 단순화한다.

셋째, 정규화(regularization, L1·L2)를 적용한다.

넷째, 드롭아웃·조기 종료 같은 신경망 전용 기법을 사용한다.

다섯째, 데이터 증강으로 학습 데이터를 부풀린다.



과적합 여부를 진단하는 가장 쉬운 방법은 「학습 데이터의 정확도와 검증 데이터의 정확도를 비교」하는 것입니다.

두 값의 격차가 크면 과적합, 둘 다 낮으면 과소적합으로 봅니다.

좋은 모델은 두 값이 모두 높고 격차가 작은 모델입니다.




한 줄 요약


과적합은 학습 데이터에만 잘 맞는 「외운 학생」, 과소적합은 둘 다 못 맞히는 「공부 부족 학생」입니다.

둘 사이의 균형을 찾는 것이 모델링의 핵심입니다.




더 알아볼 것


- 편향-분산 트레이드오프

- Early Stopping — 과적합 시작 전에 멈추기

- Cross-validation으로 과적합 진단

공유하기
목록보기
번호 제목 글쓴이 작성일 조회 좋아요
40 토순이 26/04/27 17 0
39 토순이 26/04/27 34 0
38 다람쥐 26/04/27 23 0
37 별님이 26/04/27 20 0
36 곰돌이 26/04/27 42 0
35 햇살이 26/04/27 15 0
34 토순이 26/04/27 21 0
33 햇살이 26/04/27 50 0
32 멍뭉이 26/04/27 17 0
31 토순이 26/04/27 20 0
30 멍뭉이 26/04/27 20 0
29 곰돌이 26/04/27 18 0
28 부엉이 26/04/27 17 0
27 부엉이 26/04/27 17 0
26 다람쥐 26/04/27 16 0
25 야옹이 26/04/27 17 0
24 별님이 26/04/27 16 0
23 멍뭉이 26/04/27 24 0
22 너구리 26/04/27 52 0
21 부엉이 26/04/27 19 0
20 부엉이 26/04/27 22 0
19 야옹이 26/04/27 17 0
18 토순이 26/04/27 67 0
17 곰돌이 26/04/27 46 0
16 구름이 26/04/27 41 0
15 너구리 26/04/27 19 0
14 곰돌이 26/04/27 18 0
13 토순이 26/04/27 18 0
12 다람쥐 26/04/27 20 0
11 별님이 26/04/27 48 0
신고하기

신고 사유를 선택해 주세요.