sensitivity
-
AUC와 ROC CurveStatistics 2020. 4. 15. 18:26
안녕하세요 이전 포스팅에 이어서 AUC와 ROC Curve에 대해서 살펴보고자 합니다. 본 포스팅에 앞서 이전에 학습했던 것을 살짝 언급해보면 분류 모델의 성능을 평가하는 척도로는 Accuracy, AUC, F1 Score 등을 많이 사용하고 있습니다. 이와 같은 지표들을 어떻게 산출할까요? 바로 Confusion Matrix(혼돈행렬)에서 지표를 추출합니다. 위에 보시는 그림이 Confusion Matrix를 간략하게 그려본 것인데요. 이를 통해서 Accuracy Sensitivity Precision Specificity F1 Score Error Rate 의 지표를 추출할 수 있습니다. 위 지표들에 대한 자세한 설명은 아래의 글을 참고해주세요. Confusion Matrix의 손쉬운 이해 안녕하세요..
-
Confusion Matrix의 손쉬운 이해Statistics 2020. 4. 12. 17:23
안녕하세요. 이번엔 봐도봐도 항상 헷갈릴 수 있는 Confusion Matrix 부터 AUC, ROC Curve에 대해서 설명해드리고자 합니다. 저희는 어떤 미지의 값을 예측할 때 예측에 대한 성능을 다양한 척도(Metric)로 평가하고 있습니다. 간략하게 소개하자면, Regression RMSE MSE logloss Classification Accuracy f1-score 이러한 방법들이 있습니다. 다시 본론으로 돌아와서 지금부터 설명해드릴 부분은 분류문제에서 주로 사용하고 있는 Accuracy(정확도) Sensitivity(민감도, 재현도) Precision(정밀도) Specificity(특이도) AUC F1-score 위의 평가척도들을 설명해보도록 하겠습니다. 1. Confusion Matrix ..