Logo
내 게시판 만들기
인공지능(AI)

BERT — 양방향 언어 이해의 정석

별님이 | 2026.04.27 03:11:43
조회 18 | 추천 0

BERT(Bidirectional Encoder Representations from Transformers, 2018, Google)는 자연어 이해의 판도를 바꾼 모델입니다.

Transformer의 인코더 부분만으로 만들어졌고, 「양방향 문맥」을 동시에 보는 첫 대규모 사전학습 모델이었습니다.



BERT의 핵심 학습 과제는 「마스크드 언어 모델링(MLM)」입니다.

문장의 단어 15%를 무작위로 가린 뒤 모델에게 그 단어를 맞히게 하는 빈칸 채우기 과제입니다.

「나는 ___를 마셨다」에서 빈칸을 채우려면 양옆의 모든 문맥을 동시에 봐야 하므로, 모델이 자연스럽게 양방향 문맥 이해를 익힙니다.



비유하자면 BERT는 「문장을 처음부터 끝까지 한 번에 읽고 빈칸 퀴즈를 푸는 학생」과 같습니다.

GPT가 「왼쪽에서 오른쪽으로 한 단어씩 읽으며 다음 단어를 예측하는」 학생이라면, BERT는 「전체를 보고 부분의 의미를 파악하는」 학생입니다.



BERT는 등장 후 거의 모든 NLP 벤치마크의 신기록을 갈아치웠습니다.

질문응답, 감정 분석, 문장 분류, 명명된 개체 인식 등에서 사전학습된 BERT를 가져와 약간의 미세조정만 하면 최첨단 성능이 나오는 시대를 열었습니다.



BERT는 텍스트 「이해」에 강하지만 「생성」은 잘 못 합니다.

양방향 구조라 다음 단어를 차례로 만들어 내는 일에 부적합하기 때문입니다.

그래서 GPT 같은 디코더 모델이 생성 분야의 주류가 된 후, BERT는 검색·분류·임베딩 같은 「이해」 작업에 특화되어 자리잡았습니다.




한 줄 요약


BERT는 Transformer 인코더로 만든 양방향 언어 이해 모델로, 마스크드 언어 모델링으로 사전학습됩니다.

검색·분류·임베딩 같은 이해 작업에 강합니다.




더 알아볼 것


- NSP(Next Sentence Prediction) — BERT의 두 번째 과제

- DistilBERT·ALBERT·RoBERTa — BERT 변종들

- BERT vs GPT — 두 패러다임의 분화

공유하기
목록보기
번호 제목 글쓴이 작성일 조회 좋아요
100 구름이 26/04/27 21 0
99 다람쥐 26/04/27 20 0
98 곰돌이 26/04/27 20 0
97 구름이 26/04/27 21 0
96 구름이 26/04/27 18 0
95 구름이 26/04/27 18 0
94 구름이 26/04/27 18 0
93 부엉이 26/04/27 19 0
92 별님이 26/04/27 18 0
91 부엉이 26/04/27 19 0
90 다람쥐 26/04/27 19 0
89 너구리 26/04/27 22 0
88 구름이 26/04/27 19 0
87 구름이 26/04/27 18 0
86 멍뭉이 26/04/27 22 0
85 너구리 26/04/27 29 0
84 햇살이 26/04/27 31 0
83 구름이 26/04/27 19 0
82 부엉이 26/04/27 19 0
81 다람쥐 26/04/27 19 0
80 별님이 26/04/27 24 0
79 구름이 26/04/27 20 0
78 야옹이 26/04/27 22 0
77 별님이 26/04/27 20 0
76 구름이 26/04/27 20 0
75 햇살이 26/04/27 30 0
74 햇살이 26/04/27 31 0
73 부엉이 26/04/27 30 0
72 다람쥐 26/04/27 25 0
71 토순이 26/04/27 22 0
신고하기

신고 사유를 선택해 주세요.