EU AI Act는 2024년 6월 정식 통과된 「세계 최초의 포괄적 AI 규제 법안」입니다.
EU 시장에 진출하는 모든 AI 시스템이 적용 대상이며, 미국·한국·중국의 AI 회사들도 EU 사용자를 대상으로 한다면 따라야 합니다.
핵심은 「위험 수준에 따른 4단계 분류」입니다.
1) 「수용 불가 위험」 — 사회적 점수 매기기, 실시간 공공 얼굴 인식 등은 원칙적 금지.
2) 「고위험」 — 채용·의료·법 집행·교육 평가 등에 쓰이는 AI는 엄격한 의무 부과.
3) 「제한적 위험」 — 챗봇·딥페이크는 표시 의무.
4) 「최소 위험」 — 게임·스팸 필터 같은 AI는 자유.
고위험 AI에 부과되는 의무는 매우 까다롭습니다.
위험 평가 시스템 운영, 데이터 거버넌스(편향 검토), 기록 보관, 투명성 보장, 인간 감독, 정확성·견고성 보장 등 여러 단계의 컴플라이언스를 거쳐야 합니다.
위반 시 회사 글로벌 매출의 최대 7%까지 과징금이 부과됩니다.
「범용 AI 모델(GPT-4·Claude·Llama)」에는 별도 조항이 있습니다.
매우 큰 모델(예: 학습 연산량 10²⁵ FLOPS 이상)은 「systemic risk(시스템 위험)」로 분류돼 더 엄격한 평가·보고 의무가 부과됩니다.
EU AI Act의 영향은 EU를 넘어 전 세계로 퍼지고 있습니다.
「브뤼셀 효과(Brussels Effect)」 — EU 규제가 글로벌 표준이 되는 현상 — 가 GDPR에 이어 다시 일어날 가능성이 큽니다.
한국·일본·캐나다·브라질도 비슷한 위험 기반 분류를 도입하는 추세입니다.
한 줄 요약
EU AI Act는 2024년 통과된 세계 첫 포괄 AI 규제로, 위험 수준에 따라 4단계로 분류하고 고위험 AI에 엄격한 의무를 부과합니다.
글로벌 표준으로 확산될 가능성이 큽니다.
더 알아볼 것
- EU AI Act 시행 일정
- 고위험 AI의 의무 상세
- 브뤼셀 효과 — GDPR과의 비교