티스토리 뷰

AI/Baseline

ROC Curve란

아인샴 2024. 3. 11. 16:00

Sensitivity Specificity 

   - Sensitivity는 민감도. 민감도를 높이면 무엇이든 참이라고 추론할 것이다. (참은 잘맞추겠지만 거짓이 많이 나올 것)

   - Specificity는 특이성. 특이성을 높이면 무엇이든 거짓이라고 추론할 것이다. (거짓을 잘 맞추겠지만.. ) 

   - sensitivity와 1-Specificity 는 비례한다.

 

ROC (Receiver Operating Characteristic) curve

  -FPR과 TPR을 각각 x,y축으로 놓은 그래프라고 한다. 

                                       기계  실제

  -False Positive Rate :  참      (거짓)     의 비율 (분모는 실제 거짓)     =Sensitivity

  -True Positive Rate :    (참)      참        의 비율 (분모는 실제 참 )        = 1-Specificity

 

https://en.wikipedia.org/wiki/Receiver_operating_characteristic#/media/File:Roc-draft-xkcd-style.svg

 

 

참을 참이라고 맞추고, 참을 거짓이라고 하는 일은 없는 것이 이상적이므로 TPR이 100에 FPR이 0인 것이 perfect classifier로 가는 길 일 것이다.

FPR이 1.0일 때 TPR도 1.0인 이유는 모두 참이라고 하여 참을 100% 맞췄기 때문이다. 예를 들면 객관식에서 모두 5번으로 찍은 다음에 '답이 5번인 문제를 맞춘 비율'을 확인 한 것과 같다. 

좌상에 가까울 수록 좋은 분류기 일테고, 이 때  AUC(Area Under the roc Curve)는 이 그래프의 아래 면적을 말한다. 해당 면적이 클 수록, 1.0*1.0 인 면적 1.0에 가까울 수록 좋은 모델이라고 한다. 

 

 

 

 

 

출처 : 

https://yangoos.tistory.com/2  << gif 가 엄청 유익했다. 

https://bioinfoblog.tistory.com/221

'AI > Baseline' 카테고리의 다른 글

Deep belief networks (with GPT4)  (0) 2024.03.21
Unsupervised DA관련 with GPT4  (0) 2024.03.21
CSPDarknet53, Mish 활성화, Cross-stage partial connections  (0) 2024.03.04
CLIP에 대해서 봤다.  (0) 2023.05.29
BERT에 대해서 봤다.  (2) 2023.05.19