데이터 분석

인공지능 편향(bias) 이해하기 위한 예시

The Ohgorithm 2025. 10. 18. 13:54

🧠 1. 채용 AI의 예시

회사에서 AI로 신입사원 이력서를 자동 평가하는 프로그램을 만들었다고 해요.
그런데 이 AI는 과거 회사에서 합격했던 사람들의 데이터를 학습했어요.
만약 그 회사가 과거에 남성을 더 많이 뽑았다면,
AI는 “남성 지원자가 합격 가능성이 높다”고 잘못 학습하게 돼요.

결과적으로

  • 똑같이 유능한 여성 지원자는 떨어지고,
  • 남성 지원자는 더 자주 합격하는
    불공정한 결과가 나오게 됩니다.

➡️ 이것이 “데이터 편향” 때문이에요.
AI가 배운 데이터 자체에 이미 인간의 편향이 들어 있었기 때문이죠.


📸 2. 얼굴 인식 AI의 예시

어떤 얼굴 인식 AI가 백인 남성 얼굴 위주로 학습되었다고 해요.
그럼 이 AI는 흑인 여성이나 동양인 얼굴을 잘 구별하지 못할 수 있어요.

예를 들어,

  • 백인 남성은 정확히 인식하지만
  • 흑인 여성은 “인식 실패” 또는 “다른 사람으로 착각”

➡️ 이것도 학습 데이터가 다양하지 않아서 생긴 편향이에요.


💬 3. 번역 AI의 예시

AI 번역기가 문장 “The doctor said he is busy.”를 번역할 때,

  • 영어에서는 성별이 명시되지 않았지만,
  • 한국어로는 “그 의사 남자는 바쁘다고 했다.”처럼 번역될 수 있어요.

이건 AI가 과거 번역 데이터에서
‘의사 → 남성’이라는 패턴을 자주 봤기 때문이에요.
➡️ 성 역할에 대한 사회적 편향이 반영된 사례죠.


🔍 정리하면

구분                                   예시                                                                 편향 원인

 

채용 AI 여성 지원자 탈락 과거 데이터의 성별 불균형
얼굴 인식 흑인·아시아인 인식 오류 인종 다양성 부족
번역기 의사=남성, 간호사=여성 사회적 고정관념 반영