📊 1️⃣ 성능 지표별 기준
| 지표 | 이름뜻 | 값이 클수록 | 해석 |
| Accuracy (정확도) | 전체 중 맞춘 비율 | ✅ 좋음 | 전체 예측 정확도를 평가 |
| Precision (정밀도) | 예측 중 맞춘 비율 | ✅ 좋음 | “맞다고 한 것 중에 진짜 맞은 비율” |
| Recall (재현율) | 실제 중 맞춘 비율 | ✅ 좋음 | “진짜 맞은 것 중에 잘 찾아낸 비율” |
| F1 Score | 정밀도와 재현율의 조화 평균 | ✅ 좋음 | Precision, Recall의 균형을 본 지표 |
| ROC-AUC | 모델이 구분을 얼마나 잘 하는지 | ✅ 좋음 | 1에 가까울수록 좋은 분류기 |
| Loss (손실) | 예측이 실제와 얼마나 다른지 | ❌ 나쁨 (작을수록 좋음) | 오차의 평균값 |
| RMSE / MSE | 회귀모델의 예측 오차 크기 | ❌ 나쁨 (작을수록 좋음) | 예측값과 실제값의 차이 정도 |
_____________________________________________
예시)
모델 Accuracy (정확도) F1 Score
| RandomForestClassifier (rfc) | 0.64 | 0.043 |
| XGBoostClassifier (xgbc) | 0.592 | 0.203 |
🧠 1️⃣ 정확도(Accuracy) 기준으로 보면
- 랜덤포레스트(RandomForest) 의 정확도 0.64가 더 높습니다.
➡️ 즉, 전체적으로 맞춘 비율이 더 높아요.
❤️ 2️⃣ F1 점수(F1 Score) 기준으로 보면
- XGBoost(XGBC) 의 F1 점수 0.203이 훨씬 높아요.
➡️ 즉, 소수 클래스(불균형 데이터) 를 더 잘 맞추고 있다는 뜻이에요.
⚖️ 3️⃣ 결론
"어떤 모델이 더 낫냐" 는 목표에 따라 달라집니다.
| 상황 | 더 좋은 모델 |
| 전체 예측 정확도를 높이고 싶다 | ✅ RandomForest (0.64) |
| 불균형 데이터에서 소수 클래스(예: 이탈자, 부정행위자 등) 잘 잡고 싶다 | ✅ XGBoost (F1 = 0.203) |
'데이터 분석' 카테고리의 다른 글
| 구글 코랩 colab 단축키 정리 (0) | 2025.10.20 |
|---|---|
| 파이썬 and 와 & 차이 (+ 예시, 오류 메시지) (0) | 2025.10.20 |
| Boxplot에서 평균(mean) 대충 비교하는 방법 (0) | 2025.10.18 |
| 인공지능 편향(bias) 이해하기 위한 예시 (0) | 2025.10.18 |
| Barplot 표 예시 설명(+ 배송 소요 시간 예측) (1) | 2025.10.16 |