AI 안전성을 둘러싼 큰 논쟁 중 하나가 「오픈웨이트 모델 vs 폐쇄형 모델」 — 어느 쪽이 더 안전한가입니다.
두 진영이 명확히 갈라져 서로의 위험을 강조합니다.
「오픈이 더 안전」 진영의 주장은 다음과 같습니다.
첫째, 「많은 눈이 검토하면 결함 발견이 빠르다」 — 리눅스 커널이 그렇게 안전한 것처럼.
둘째, 「소수 회사의 독점이 더 위험」 — 권력 집중이 자체로 위험.
셋째, 「검증·재현·연구가 가능」 — 연구자가 모델 안을 들여다볼 수 있어야 안전 연구가 진전된다.
「폐쇄가 더 안전」 진영의 주장은 다음과 같습니다.
첫째, 「가중치 공개는 악용 가능성을 높인다」 — 안전 장치를 우회한 변형이 즉시 만들어질 수 있음.
둘째, 「위험한 능력의 확산을 통제」 — 폐쇄 모델은 회사가 위험 사용을 거부할 수 있지만 오픈은 한 번 풀리면 회수 불가.
셋째, 「책임 소재 명확」 — 폐쇄 모델은 회사가 책임지지만 오픈은 누구도 책임지지 않음.
현실은 두 진영 모두 일리가 있습니다.
작은 모델(7B~13B)은 위험성이 제한적이라 오픈 효과가 더 크고, 매우 큰 모델(>100B)은 위험성도 커서 신중함이 필요할 수 있습니다.
메타는 「Llama는 오픈이 사회 전체에 더 이롭다」 입장이고, OpenAI·Anthropic은 「폐쇄형이 안전 통제에 더 유리하다」 입장입니다.
EU AI Act는 「오픈소스 모델에 일부 면제」를 두지만, 「systemic risk」 수준의 큰 모델에는 오픈 여부와 무관하게 의무를 부과합니다.
이 균형 잡기 시도는 다른 나라들에서도 참고되고 있습니다.
결국 「오픈 vs 폐쇄」보다 「적절한 거버넌스 + 위험 수준에 따른 차별화」가 답일 가능성이 큽니다.
한 줄 요약
오픈 모델이 더 안전한가 폐쇄가 더 안전한가는 양 진영의 주장이 모두 일리가 있어, 모델 크기·위험 수준에 따른 차별화된 거버넌스가 답일 가능성이 큽니다.
더 알아볼 것
- 메타의 오픈 모델 옹호 입장
- OpenAI·Anthropic의 폐쇄 정당화
- EU AI Act의 오픈 모델 처리