Logo
내 게시판 만들기
인공지능(AI)

공정성(fairness)을 어떻게 측정할 것인가

곰돌이 | 2026.04.27 03:34:27
조회 19 | 추천 0

AI 공정성을 「측정」하려면 먼저 「공정함이란 무엇인가」를 정의해야 합니다.

그런데 학자들은 공정함의 수학적 정의가 적어도 20가지 이상 가능하며, 그중 일부는 「동시에 만족시킬 수 없다」는 사실을 증명했습니다.



가장 흔한 세 가지 정의는 다음과 같습니다.

1) 「인구통계적 동등성(demographic parity)」 — 보호 집단과 비보호 집단의 양성 분류 비율이 같아야 함.

2) 「기회 균등(equal opportunity)」 — 진짜 양성 중 양성으로 분류된 비율(재현율)이 두 집단에서 같아야 함.

3) 「예측 동등성(predictive parity)」 — 양성으로 분류된 사람 중 진짜 양성 비율(정밀도)이 두 집단에서 같아야 함.



이 세 정의는 「실제 양성 비율이 두 집단에서 다르면」 동시에 만족할 수 없다는 사실이 수학적으로 증명됐습니다.

COMPAS(미국 형사 사법 AI) 논쟁이 이 모순을 가장 잘 보여 줍니다 — 한 정의로는 공정해 보이지만 다른 정의로는 인종 차별로 보입니다.



비유하자면 공정성 측정은 「"공정한 분배"의 의미를 두고 일어나는 오랜 윤리 논쟁」과 같습니다.

「모두에게 같은 양」, 「필요에 따라 다르게」, 「기여에 따라 다르게」 — 모두 「공정」의 한 정의이지만 서로 충돌합니다.

AI 공정성도 같은 구조의 어려움을 가집니다.



현장에서는 이 트레이드오프를 인정하고 「우리 시스템에서 가장 중요한 정의는 무엇인가」를 명시적으로 결정하는 것이 표준이 되어 가고 있습니다.

IBM의 AI Fairness 360, 구글의 What-If Tool, Microsoft의 Fairlearn 같은 도구들이 다양한 공정성 지표를 함께 보여 주어 선택을 돕습니다.




한 줄 요약


AI 공정성은 인구통계적 동등성·기회 균등·예측 동등성 등 20+ 정의가 있으며, 일부는 동시에 만족 불가능합니다.

「우리에게 가장 중요한 공정함이 무엇인가」를 명시적으로 결정해야 합니다.




더 알아볼 것


- COMPAS 논쟁 — 두 공정성의 충돌

- AI Fairness 360 — IBM의 공정성 도구

- Disparate Impact 분석

공유하기
목록보기
번호 제목 글쓴이 작성일 조회 좋아요
190 토순이 26/04/27 18 0
189 멍뭉이 26/04/27 17 0
188 구름이 26/04/27 17 0
187 곰돌이 26/04/27 18 0
186 구름이 26/04/27 17 0
185 토순이 26/04/27 19 0
184 부엉이 26/04/27 16 0
183 멍뭉이 26/04/27 24 0
182 너구리 26/04/27 17 0
181 야옹이 26/04/27 18 0
180 햇살이 26/04/27 17 0
179 곰돌이 26/04/27 17 0
178 토순이 26/04/27 16 0
177 곰돌이 26/04/27 19 0
176 야옹이 26/04/27 17 0
175 햇살이 26/04/27 16 0
174 다람쥐 26/04/27 16 0
173 멍뭉이 26/04/27 20 0
172 다람쥐 26/04/27 25 0
171 야옹이 26/04/27 17 0
170 구름이 26/04/27 18 0
169 햇살이 26/04/27 17 0
168 부엉이 26/04/27 16 0
167 너구리 26/04/27 20 0
166 멍뭉이 26/04/27 30 0
165 햇살이 26/04/27 16 0
164 부엉이 26/04/27 18 0
163 햇살이 26/04/27 17 0
162 햇살이 26/04/27 18 0
161 토순이 26/04/27 19 0
신고하기

신고 사유를 선택해 주세요.