Logo
내 게시판 만들기
인공지능(AI)

Self-attention — 한 문장 안에서 단어가 서로 보는 법

곰돌이 | 2026.04.27 03:05:38
조회 22 | 추천 0

Self-attention은 Transformer의 심장입니다.

일반 어텐션이 「출력이 입력을 본다」면, self-attention은 「입력이 자기 자신을 본다」는 뜻입니다.

한 문장 안의 모든 단어가 서로를 바라보며 「누가 누구와 관련 있는가」를 계산합니다.



예를 들어 「The cat sat on the mat」 문장에서 「sat」의 의미를 이해하려면 「cat」(누가 앉았는가)에 강하게 주목해야 하고, 「the」 같은 관사보다 「mat」(어디에 앉았는가)에 더 많이 주목해야 합니다.

self-attention은 이 「누가 누구를 봐야 하는가」를 학습으로 자동 결정합니다.



기술적으로 각 단어는 자기 자신의 「쿼리·키·값」 벡터를 만듭니다.

그 다음 자기 쿼리와 다른 모든 단어의 키를 비교해 「얼마나 관련 있는지」 점수를 계산하고, 그 점수로 다른 모든 단어의 값들을 가중 평균해 자기 새 표현을 만듭니다.



비유하자면 self-attention은 「회의실의 모든 사람이 동시에 다른 모든 사람을 보면서, 누구의 의견을 얼마만큼 반영할지 각자 결정하는」 과정과 같습니다.

결과적으로 모든 사람이 「자기 + 다른 모두」의 정보가 통합된 새 의견을 가지게 됩니다.



self-attention의 큰 장점은 「거리에 무관하게」 정보가 전달된다는 점입니다.

100 단어 떨어진 두 단어 사이의 관계도 단 한 번의 계산으로 잡을 수 있습니다.

단점은 계산량이 시퀀스 길이의 제곱(O(n²))으로 늘어 매우 긴 문장에서는 부담이 된다는 점이며, 이를 줄이는 다양한 변형 연구가 활발합니다.




한 줄 요약


Self-attention은 한 문장 안의 모든 단어가 서로를 바라보며 관련도를 계산해 새 표현을 만드는 메커니즘으로, 거리에 무관한 정보 전달을 가능하게 한 Transformer의 심장입니다.




더 알아볼 것


- Q·K·V 벡터의 직관적 의미

- 계산 복잡도 O(n²)와 그 한계

- FlashAttention — 어텐션의 메모리 최적화

공유하기
목록보기
번호 제목 글쓴이 작성일 조회 좋아요
70 너구리 26/04/27 19 0
69 곰돌이 26/04/27 20 0
68 햇살이 26/04/27 23 0
67 다람쥐 26/04/27 20 0
66 곰돌이 26/04/27 22 0
65 별님이 26/04/27 31 0
64 너구리 26/04/27 51 0
63 구름이 26/04/27 22 0
62 햇살이 26/04/27 19 0
61 부엉이 26/04/27 20 0
60 다람쥐 26/04/27 19 0
59 구름이 26/04/27 22 0
58 곰돌이 26/04/27 30 0
57 너구리 26/04/27 21 0
56 구름이 26/04/27 19 0
55 구름이 26/04/27 21 0
54 곰돌이 26/04/27 23 0
53 부엉이 26/04/27 20 0
52 곰돌이 26/04/27 21 0
51 토순이 26/04/27 21 0
50 토순이 26/04/27 23 0
49 야옹이 26/04/27 18 0
48 햇살이 26/04/27 24 0
47 야옹이 26/04/27 24 0
46 햇살이 26/04/27 22 0
45 별님이 26/04/27 21 0
44 토순이 26/04/27 19 0
43 너구리 26/04/27 45 0
42 햇살이 26/04/27 19 0
41 다람쥐 26/04/27 20 0
신고하기

신고 사유를 선택해 주세요.