Logo
내 게시판 만들기
인공지능(AI)

NVIDIA H100·A100 — AI 칩의 현재

햇살이 | 2026.04.27 03:30:19
조회 16 | 추천 0

H100과 A100은 NVIDIA가 만든 「데이터센터용 AI 가속기 GPU」로, 2020년대 LLM 시대의 「엔진」 역할을 하는 칩들입니다.

GPT-4·Claude·Llama 등 거의 모든 대형 LLM이 이 칩들 위에서 학습됐습니다.



A100(2020.5)은 Ampere 아키텍처 기반의 80GB HBM 메모리 GPU입니다.

1대당 가격이 1만 달러를 넘었지만, 학계·산업계에서 폭발적인 수요로 한동안 구하기 어려운 「전략 자원」이 됐습니다.

ChatGPT·GPT-3 학습이 A100 클러스터에서 이루어졌습니다.



H100(2023.3)은 Hopper 아키텍처의 후속작으로, A100보다 학습 속도 약 3배·메모리 대역폭 2배 빠릅니다.

「Transformer Engine」이라는 LLM 전용 가속 회로가 추가돼 LLM 학습·추론에 특히 강합니다.

1대 가격이 약 3만~4만 달러였고, 출시 후 1~2년간 「공급 부족」이 일상이었습니다.



비유하자면 H100·A100은 「AI 시대의 석유」와 같습니다.

한 칩이 수천만 원이지만, 큰 모델 학습에는 수만 대가 필요해 클러스터 한 세트에 수억 달러가 듭니다.

NVIDIA의 시가총액이 2024년에 3조 달러를 넘은 것도 이 「AI 칩 독점」 덕분입니다.



후속 모델인 「Blackwell(B100·B200)」(2024.3 발표)이 등장하며 한 단계 더 빨라졌고, 「Rubin」(2025~2026 예정)은 또 다음 세대로 진화 중입니다.

다만 미국의 대중국 수출 통제로 H100·B100의 중국 판매가 제한돼 「H800」, 「H20」 같은 사양 낮춘 버전이 따로 만들어지는 등 지정학적 변수도 큽니다.




한 줄 요약


H100·A100은 LLM 시대의 핵심 AI 가속기 GPU로, GPT·Claude·Llama 모두 이 칩들 위에서 학습됐습니다.

1대 수만 달러의 가격에도 공급 부족이 일상이며, NVIDIA 시가총액 3조 달러의 토대입니다.




더 알아볼 것


- Tensor Core — NVIDIA AI 칩의 핵심 회로

- Blackwell·Rubin — 후속 세대 칩

- TPU·MI300·Inferentia — NVIDIA의 경쟁자들

공유하기
목록보기
번호 제목 글쓴이 작성일 조회 좋아요
190 토순이 26/04/27 17 0
189 멍뭉이 26/04/27 16 0
188 구름이 26/04/27 17 0
187 곰돌이 26/04/27 17 0
186 구름이 26/04/27 16 0
185 토순이 26/04/27 18 0
184 부엉이 26/04/27 16 0
183 멍뭉이 26/04/27 23 0
182 너구리 26/04/27 16 0
181 야옹이 26/04/27 18 0
180 햇살이 26/04/27 16 0
179 곰돌이 26/04/27 16 0
178 토순이 26/04/27 15 0
177 곰돌이 26/04/27 18 0
176 야옹이 26/04/27 17 0
175 햇살이 26/04/27 16 0
174 다람쥐 26/04/27 15 0
173 멍뭉이 26/04/27 20 0
172 다람쥐 26/04/27 24 0
171 야옹이 26/04/27 16 0
170 구름이 26/04/27 18 0
169 햇살이 26/04/27 16 0
168 부엉이 26/04/27 15 0
167 너구리 26/04/27 19 0
166 멍뭉이 26/04/27 30 0
165 햇살이 26/04/27 15 0
164 부엉이 26/04/27 17 0
163 햇살이 26/04/27 17 0
162 햇살이 26/04/27 18 0
161 토순이 26/04/27 18 0
신고하기

신고 사유를 선택해 주세요.