2018년 4월 6일 금요일

Ensemble

  • 여러 classifiers로부터 구해진 prediction의 결과를 종합하여 prediction하는 방법
  • 종류
    • Bagging
      • 랜덤하게 training set에서  subset을 뽑고, 각기 다른 모델을 학습시킴. 그 다음, 모델에 동일한 weights를 주고 결과를 합침.
      • 각각의 모델의 독립적임.
      • MSE에서 variance를 줄여줌.
      • 대표적인 예: random Forests
    • Boosting
      • 전에 학습한 모델이 잘못 분류한 정보를 참고하여 다음 모델을 학습시킴.
      • bagging보다 더 높은 정확도를 자랑하지만, overfitting되기 쉬움.
      • 각 모델은 전에 수행된 모델에 종속적임.
      • training examples는 매 iteration마다 다른 weights를 가짐. 즉, 분류하기 어려운 examples일수록 더 큰 weights를 가짐.
      • MSE에서 bias를 줄여줌.
      • 대표적인 예: AdaBoost

댓글 없음:

댓글 쓰기