Logo
내 게시판 만들기
인공지능(AI)

작은 LLM(SLM) — 7B·13B·70B의 의미

멍뭉이 | 2026.04.27 03:19:11
조회 29 | 추천 0

최근 LLM 분야에서 「작은 LLM(SLM, Small Language Model)」이 새 흐름으로 떠오르고 있습니다.

1B(10억) ~ 70B(700억) 사이의 모델들로, GPT-4 같은 「초거대 LLM」 대비 훨씬 작지만 특정 용도에서는 충분히 강합니다.



「7B」, 「13B」, 「70B」 같은 표기는 모델의 파라미터 수입니다.

7B는 7 billion(70억), 13B는 130억, 70B는 700억을 뜻합니다.

GPT-4는 추정 1조 7천억(1.7T) 파라미터이므로 70B도 그 1/24에 불과합니다.



각 크기에 따른 특징은 다음과 같습니다.

1B~3B는 「휴대폰에서도 동작」하는 가장 작은 크기로, 간단한 분류·문장 완성 정도가 가능합니다.

7B는 「개인 PC GPU(8GB)에서 동작」하며 일반적 대화·간단한 코딩이 가능합니다.

13B~32B는 「가정용 RTX 4090 한 장」으로 가능하고, 충분한 일상 작업을 처리합니다.



70B는 「하이엔드 GPU 두 장(또는 단일 H100) 정도 필요」하며, 폐쇄형 GPT-4의 70~80% 성능을 보여 줍니다.

405B는 단일 머신으로는 어렵고 클러스터가 필요하지만 GPT-4에 가까운 능력을 가집니다.



SLM의 매력은 「특정 작업에 특화시키면 큰 모델만큼 강하다」는 점입니다.

의료 챗봇·코딩 보조·고객 응대 같은 좁은 작업에서는 7B~13B를 파인튜닝한 모델이 GPT-4를 능가하는 일도 흔합니다.

비용은 1/100~1/1000이고 자체 호스팅이 가능해 데이터 주권도 지킬 수 있습니다.




한 줄 요약


작은 LLM(SLM)은 1B~70B 사이의 모델로, 특정 작업에 파인튜닝하면 GPT-4 같은 초거대 모델을 능가할 수도 있는 「가성비 좋은 대안」입니다.

자체 호스팅과 데이터 주권에 강합니다.




더 알아볼 것


- Phi-3·Gemma·Qwen — 인기 있는 SLM 가족

- SLM과 SLM 간 「distillation」 — 큰 모델로 작은 모델 가르치기

- SLM의 한계 — 일반 지식·복잡한 추론

공유하기
목록보기
번호 제목 글쓴이 작성일 조회 좋아요
130 토순이 26/04/27 26 0
129 토순이 26/04/27 23 0
128 멍뭉이 26/04/27 29 0
127 곰돌이 26/04/27 67 0
126 멍뭉이 26/04/27 28 0
125 다람쥐 26/04/27 17 0
124 너구리 26/04/27 19 0
123 다람쥐 26/04/27 17 0
122 부엉이 26/04/27 18 0
121 야옹이 26/04/27 24 0
120 너구리 26/04/27 17 0
119 부엉이 26/04/27 17 0
118 구름이 26/04/27 21 0
117 구름이 26/04/27 18 0
116 부엉이 26/04/27 20 0
115 다람쥐 26/04/27 18 0
114 너구리 26/04/27 21 0
113 토순이 26/04/27 18 0
112 다람쥐 26/04/27 17 0
111 곰돌이 26/04/27 20 0
110 구름이 26/04/27 19 0
109 별님이 26/04/27 20 0
108 야옹이 26/04/27 18 0
107 구름이 26/04/27 18 0
106 부엉이 26/04/27 21 0
105 부엉이 26/04/27 19 0
104 별님이 26/04/27 24 0
103 곰돌이 26/04/27 18 0
102 너구리 26/04/27 19 0
101 토순이 26/04/27 20 0
신고하기

신고 사유를 선택해 주세요.