AI 분야는 용어가 많아 처음 접할 때 자주 막힙니다.
자주 등장하는 30가지 핵심 단어를 한 줄씩 정리해 두면 입문에 큰 도움이 됩니다.
1.
모델(model) — 학습된 결과물.
2.
학습(training) — 데이터로 모델을 만드는 과정.
3.
추론(inference) — 학습된 모델로 답을 내는 과정.
4.
파라미터(parameter) — 모델 안의 「조정 가능한 숫자」.
5.
하이퍼파라미터(hyperparameter) — 학습 전에 사람이 정하는 값(학습률 등).
6.
데이터셋(dataset) — 학습용 데이터의 묶음.
7.
손실함수(loss function) — 예측이 정답과 얼마나 떨어졌는가를 재는 척도.
8.
경사하강법(gradient descent) — 손실을 줄이는 방향으로 파라미터를 조금씩 옮기는 알고리즘.
9.
배치(batch) — 한 번에 학습에 쓰는 데이터 묶음.
10.
에폭(epoch) — 전체 데이터셋을 한 번 다 본 단위.
11.
과적합(overfitting) — 학습 데이터엔 잘 맞지만 새 데이터에 약한 상태.
12.
일반화(generalization) — 새 데이터에도 잘 맞는 능력.
13.
신경망(neural network) — 뇌 신경세포 구조에서 영감을 받은 수학적 함수의 묶음.
14.
활성화 함수(activation function) — 신경망 한 노드의 출력을 비선형으로 만들어 주는 함수.
15.
역전파(backpropagation) — 손실을 거슬러 올라가며 각 파라미터의 기여를 계산하는 방법.
16.
사전학습(pretraining) — 거대 데이터로 일단 한 번 학습.
17.
미세조정(fine-tuning) — 특정 용도로 다시 한 번 학습.
18.
임베딩(embedding) — 단어·문장·이미지를 숫자 벡터로 옮긴 것.
19.
Transformer — 현대 LLM의 표준 아키텍처.
20.
어텐션(attention) — 입력의 어느 부분에 집중할지 정하는 메커니즘.
21.
토큰(token) — 모델이 다루는 가장 작은 단위(보통 단어 조각).
22.
컨텍스트 윈도우(context window) — 모델이 한 번에 볼 수 있는 토큰 수.
23.
환각(hallucination) — 모델이 사실 아닌 내용을 그럴듯하게 만들어 내는 현상.
24.
정렬(alignment) — 모델의 행동을 사람의 가치와 맞추는 작업.
25.
RAG — 외부 자료를 검색해 답을 보강하는 기법.
26.
LoRA — 모델 일부만 효율적으로 미세조정하는 기법.
27.
RLHF — 사람의 피드백으로 모델을 다듬는 강화학습.
28.
벤치마크(benchmark) — 모델 성능을 비교하는 표준 시험.
29.
GPU/TPU — AI 학습·추론에 쓰이는 전용 칩.
30.
오픈웨이트(open weight) — 누구나 모델 가중치를 내려받아 쓸 수 있는 모델.
한 줄 요약
AI 입문 시 자주 만나는 30개 용어를 「학습/추론·파라미터·신경망·Transformer·환각·RAG·LoRA」 등으로 묶어 한 줄씩 정리해 두면 이후 모든 글이 훨씬 읽기 쉬워집니다.
더 알아볼 것
- 토크나이저 — 토큰을 만드는 도구
- GPU·TPU·NPU의 차이
- 모델 가중치(weights)와 활성값(activations)의 차이