Rule-based Classification : old method

근데 문제는.. 어떤 데이터가 들어왔을 때 여러 규칙이 동시에 발동될 수 있다. 그럴때 누구를 믿을까?
- 더 많은 feature를 검사하는 규칙을 우선순위 높게 둔다
- misclassification cost 큰 class 더 우선이다
- 규칙들을 그냥 긴 우선순위 리스트로 만들어 놓고 위에서부터 먼저 맞는 규칙을 적용한다
Rule Extraction from a Decision Tree

Rule Extraction from Association Rule Mining

- support 높음 = 자주 나타남
- confidence 높음 = 맞을 확률이 높음
- 복합 조건으로 강한 규칙을 만들 수 있다
- 그러나 min_conf, min_sup를 너무 높게 잡으면 규칙 수가 줄어서 coverage가 낮아질 수 있음
higher min confidence => lower number of rules


The k-Nearest Neighbor (KNN) Algorithm

Evaluation of a Classification Model



- recall 높이려면 positive를 많이 잡아야 해서 FP가 늘 수 있음
- precision 높이려면 positive라고 조심해서 말해야 해서 FN이 늘 수 있음
즉 둘은 trade-off가 생길 수 있어.
'학교수업 > 데이터 사이언스' 카테고리의 다른 글
| 데사 예상 문제 (0) | 2026.04.11 |
|---|---|
| Random Forest (0) | 2026.04.09 |
| [5-2] Decision Tree + Random Forest (0) | 2026.04.01 |
| [5-1] MaxMiner, Closet, CHARM (0) | 2026.03.31 |
| [4-1] FP-Growth (0) | 2026.03.23 |