그래디언트 부스팅은 앙상블 학습 방법 중 하나로, 여러 개의 약한 학습기(weak learner)를 순차적으로 학습시키면서, 이전 학습기의 잔차(오차)를 줄여나가는 방식으로 전체 모델의 예측 성능을 향상시키는 방법입니다.

기본 원리

장점

단점