🧠 1. 채용 AI의 예시
회사에서 AI로 신입사원 이력서를 자동 평가하는 프로그램을 만들었다고 해요.
그런데 이 AI는 과거 회사에서 합격했던 사람들의 데이터를 학습했어요.
만약 그 회사가 과거에 남성을 더 많이 뽑았다면,
AI는 “남성 지원자가 합격 가능성이 높다”고 잘못 학습하게 돼요.
결과적으로
- 똑같이 유능한 여성 지원자는 떨어지고,
- 남성 지원자는 더 자주 합격하는
불공정한 결과가 나오게 됩니다.
➡️ 이것이 “데이터 편향” 때문이에요.
AI가 배운 데이터 자체에 이미 인간의 편향이 들어 있었기 때문이죠.
📸 2. 얼굴 인식 AI의 예시
어떤 얼굴 인식 AI가 백인 남성 얼굴 위주로 학습되었다고 해요.
그럼 이 AI는 흑인 여성이나 동양인 얼굴을 잘 구별하지 못할 수 있어요.
예를 들어,
- 백인 남성은 정확히 인식하지만
- 흑인 여성은 “인식 실패” 또는 “다른 사람으로 착각”
➡️ 이것도 학습 데이터가 다양하지 않아서 생긴 편향이에요.
💬 3. 번역 AI의 예시
AI 번역기가 문장 “The doctor said he is busy.”를 번역할 때,
- 영어에서는 성별이 명시되지 않았지만,
- 한국어로는 “그 의사 남자는 바쁘다고 했다.”처럼 번역될 수 있어요.
이건 AI가 과거 번역 데이터에서
‘의사 → 남성’이라는 패턴을 자주 봤기 때문이에요.
➡️ 성 역할에 대한 사회적 편향이 반영된 사례죠.
🔍 정리하면
구분 예시 편향 원인
| 채용 AI | 여성 지원자 탈락 | 과거 데이터의 성별 불균형 |
| 얼굴 인식 | 흑인·아시아인 인식 오류 | 인종 다양성 부족 |
| 번역기 | 의사=남성, 간호사=여성 | 사회적 고정관념 반영 |
'데이터 분석' 카테고리의 다른 글
| 인공지능 모델 성능 지표 설명과 예시 (1) | 2025.10.18 |
|---|---|
| Boxplot에서 평균(mean) 대충 비교하는 방법 (0) | 2025.10.18 |
| Barplot 표 예시 설명(+ 배송 소요 시간 예측) (1) | 2025.10.16 |
| matplotlib 와 matplotlib.pyplot 차이 (0) | 2025.10.16 |
| Keras Sequential 모델에서 input_shape를 써야 하는 이유 — 한눈에 보는 차이와 구조 비교 (0) | 2025.10.16 |