티스토리 뷰
1. 트리 기반 모델
트리 사용 차이점 | 의사결정나무 | 앙상블-배깅(Random Forest) | 앙상블-부스팅(GBM) |
나무 갯수 | 1개 | 여러 개 | 여러 개 |
학습 데이터 | 원본 | *랜덤 복원 추출(크기는 같음) | 처음 트리엔 원본 데이터 → 다음 트리부턴 잔차(실체-예측) |
노드 분할시 피처사용 | 전체 피처 고려 | 랜덤으로 뽑아 그 중 최고 피처 선택 |
랜덤으로 뽑아 그 중 최고 피처 선택 |
나무 학습방식 | 단일 모델 학습 | 각 트리가 독립적으로 병렬 학습 |
이전 트리의 오류를 순차적으로 학습 |
예측결과 | 단일 트리 결과 | 각 트리 결과 평균(회귀모델) 각 트리 결과 투표(분류보델) |
각 트리 결과 합 (잔차 보정) |
예측 결과 예시 | 점수 예측 모델 트리 1 = 90점 |
트리1 = 85점 트리2 = 75점 최종 예측 = (85+75)/2 |
트리1 = 70점 트리2 = 10점 (잔차 보정) 트리 3 = 5점 (잔차 보정) 최종 예측 85점(70+10+5) |
* 배깅(Bagging = Bootstrap(부트스트랩) + Aggregating(결합))
** Out-of-Bag 데이터(OOB): 복원 추출로 인해 일부 데이터는 특정 트리의 학습에 포함되지 않아(약 37%) 이를 활용해 성능을 평가할 수 있다.
*** Gradient : -잔차 = -(실제값 - 예측값)
2. 의사결정나무
- 데이터를 조건에 따라 반복적으로 분할하여 그룹 내 데이터가 최대한 비슷하게 되도록 나눈다.
1) 예측나무 모델 (Regressor): 분류된 관측값들의 평균값으로 예측
2) 분류나무 모델(Classifier): 분류된 관측값들의 비율 중 가장 큰 값(다수결)으로 예측
- 분할과정
1) 각 피처에 대해 여러 임계값으로 데이터를 나누는 시도를 한다.
2) 각 분할에 대해 지니지수, 엔트로피, 정보 이득 등의 값을 계산한다.
3) 불순도를 가장 많이 줄이는(정보 이득이 가장 큰) 분할 기준을 선택
4) 해당 관정을 반복한다.
- 분할기준
예측나무(회귀문제) | 분류나무(분류문제) | |||
n: 데이터수 y: 실제값, y_bar: 그룹의 평균값, y_hat: 예측값 |
p: 클래스i에 속할 확률, c: 클래스의 개수 | |||
분산 | RSS | 지니지수 | 엔트로피 | 정보이득 |
부모그룹 엔트로피 - 자식그룹 엔트로피 |
||||
분할 후 각 그룹의 분산을 최소화 |
그룹 내 예측값과 실제값의 차이 최소화 |
그룹의 불순도 측정 | 그룹의 불확실성 측정 | 분할전후 엔트로피 감소를 계산 |
값이 작을수록 잘 설명 | 값이 작을수록 잘 설명 | 값이 작을수록 순수 | 값이 작을수록 순수 | 값이 클수록 잘 설명 |
반응형
'AI > 머신러닝' 카테고리의 다른 글
[머신러닝] 로지스틱 회귀분석(오즈를 왜 쓸까?) (0) | 2024.12.04 |
---|---|
[데이터분석] 머신러닝 모델에서 이상치(Outlier)를 다루는 방법 (6) | 2024.10.06 |
[데이터분석] Feature Selection과 Feature Engineering 가이드 (1) | 2024.10.06 |
[데이터분석] 데이터 탐색, 시각화 및 전처리 가이드 (0) | 2024.10.06 |
[데이터분석] 데이터 수집 가이드 (1) | 2024.10.05 |
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 기초
- 습관
- IH
- Python
- 미라클모닝
- 실기
- 아침
- 오픽
- 운동
- opic
- 루틴
- llm
- 오블완
- 경제
- 영어회화
- C언어
- 프로그래머스
- 줄넘기
- 스크랩
- Ai
- 뉴스
- 아침운동
- 30분
- 고득점 Kit
- 갓생
- ChatGPT
- 다이어트
- SQL
- 빅데이터 분석기사
- 티스토리챌린지
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함