Bootcamp/AI

[ML] 앙상블, 부스팅

K_Hyul 2023. 10. 18. 11:34
728x90

현재 train을 할 때, train data와 정답을 모르는 test data만 가지고 있다.

제출횟수가 제한되어 있는 경우 정답률 확인하기 위해선 train data를 나눌 필요가 있다.

train data를 train data와 정답을 아는 test data로 나누어 해결한다.

하지만 이때 train data가 많이 줄어 들기 때문에 train data를 random으로 여러개 병렬식으로 하면 될거 같다.

 

 

Bagging = data 복원 추출로 train data를 나눠(data set = random) Decision Tree model들을 여러개 넣어 최종 모델을 넣음

 

Random Forest = Decision tree를 여러개 사용, n_estimator => Decision tree 몇개 쓸건지 

 

Boosting = dataset을 조작해 다른 data를 학습 시키는 방식

 

Gradient Boost = max_depth 1,5이하로 설정해 사용

 

XG Boost = GBM을 병렬 학습 지원 -> GBM보다 속도가 빠름

 

Light GBM = XG Boost보다 빨라짐

 

catboost = 범주형 변수가 많을 경우 사용

 

Voting = 모델 여러개 사용하고 Hard인 경우 다수결로 결정, soft인 경우 확률을 평균으로 해서 결정

 

 

728x90