๐ค Ensemble Method
ํต๊ณํ๊ณผ ๊ธฐ๊ณ ํ์ต์์ ์์๋ธ ํ์ต๋ฒ์ ํ์ต ์๊ณ ๋ฆฌ์ฆ๋ค์ ๋ฐ๋ก ์ฐ๋ ๊ฒฝ์ฐ์ ๋นํด ๋ ์ข์ ์์ธก ์ฑ๋ฅ์ ์ป๊ธฐ ์ํด ๋ค์์ ํ์ต ์๊ณ ๋ฆฌ์ฆ์ ์ฌ์ฉํ๋ ๋ฐฉ๋ฒ ์ ๋๋ค.
ํต๊ณ ์ญํ์์์ ํต๊ณ์ ์์๋ธ๊ณผ ๋ฌ๋ฆฌ ๊ธฐ๊ณ ํ์ต์์์ ์์๋ธ์ ๋์ฒด ๋ชจ๋ธ๋ค์ ๋จ๋จํ ์ ํ ์งํฉ์ ๊ฐ๋ฆฌํค์ง๋ง, ์ผ๋ฐ์ ์ผ๋ก ๊ทธ๋ฌํ ๋์ฒด ๋ชจ๋ธ ์ฌ์ด์ ํจ์ฌ ๋ ์ ์ฐํ ๊ตฌ์กฐ๋ฅผ ํ์ฉํฉ๋๋ค.
์ด๋ฒ ํฌ์คํ ์์๋ ์์๋ธ ๊ธฐ๋ฒ ์ค Bagging์ ๋ํด ์์๋ณด๋ ค๊ณ ํฉ๋๋ค.
๐ About Ensemble
์์๋ธ์ ๋ ์ด์์ Base Learner์ ๊ทธ๊ฒ๋ค์ ๊ฒฐ๊ณผ๋ฅผ ๊ฒฐํฉํ์ฌ ์์ธก๊ฐ์ ๋ฐํํฉ๋๋ค.
์ด๋ ๊ฐ๊ฐ์ Learner๋ค์ ๋ฌ๋ผ์ผ๋ง ํฉ๋๋ค.
๊ฐ๊ฐ์ Learner๊ฐ ์๋ก ๋ค๋ฅธ view point๋ฅผ ๊ฐ์ง๊ณ ์์ด์ผ ํ๊ธฐ ๋๋ฌธ์ ๋๋ค.
์ด์ ๋ํ ์์๋ ์์ ํฌ์คํธ์์ ์ธ๊ธํ์ผ๋ ๊ถ๊ธํ์ ๋ถ์ ์ฐธ๊ณ ํ์๊ธฐ ๋ฐ๋๋๋ค.
https://2t-hong.tistory.com/119
์ ๋ฆฌํ์๋ฉด ๊ฐ๊ฐ์ ๊ฐ๋ณ ๋ชจ๋ธ์ด ์๋ก ๋ค๋ฅธ ๋ทฐํฌ์ธํธ๋ฅผ ๊ฐ์ง๊ฒ ํจ์ผ๋ก์จ ์ด๋ฅผ ์กฐํฉํ์ ๋ ํ๋์ ๋ชจ๋ธ์ ์ฌ์ฉํ์ ๋๋ณด๋ค ํจ์ฌ ์ข์ ๊ฒฐ๊ณผ๋ฅผ ์ป์ ์ ์๋ค๋ ๊ฒ์ ๋๋ค.
๐ Type Of Ensemble Method
์์๋ธ ๋ชจ๋ธ์ ๋ํ์ ์ผ๋ก Bagging๊ณผ Boosting์ด ์กด์ฌํฉ๋๋ค.
Bagging์ Low bias / High Variance ์ Base Learner๋ก ๊ตฌ์ฑ๋ฉ๋๋ค.
์ฆ, Overfitํ Base Learner๋ค์ ์ฌ์ฉํฉ๋๋ค.,
๋ฐ๋๋ก Boosting์ ๊ฒฝ์ฐHigh bias / Low variance์ Base Learner๋ก ๊ตฌ์ฑ๋ฉ๋๋ค.
์ฆ, Underfitํ Base Learner๋ค์ ์ฌ์ฉํฉ๋๋ค.
์ด๋ฒ ํฌ์คํธ์์๋ Bagging ๋ํด ๋ ์์ธํ ์์๋ณด๋๋ก ํ๊ฒ ์ต๋๋ค.
โ Bagging
Bagging์ด๋ Bootstrap Aggregating์ ์ค์๋ง๋ก Low bias / High variance ๋ชจ๋ธ์ base learner๋ก ์ฌ์ฉํฉ๋๋ค.
์์ ๊ทธ๋ฆผ๊ณผ ๊ฐ์ด ๊ณ ์ ๋ Training data set์ด ์กด์ฌํ๋ค๊ณ ํ๊ฒ ์ต๋๋ค.
์ด๋ Bootstrapping์ด๋ผ๊ณ ๋ถ๋ฆฌ๋ ์ํ๋ง ๊ธฐ๋ฒ์ ํตํด Bootstrap ์ n๊ฐ ์์ฑํฉ๋๋ค.
Bootstrap์ sample set์ด๋ผ๊ณ ์๊ฐํ์๋ฉด ๋ฉ๋๋ค.
์ด๋ Bootstrapping์ ๋ณต์์ถ์ถ์ ์ด์ฉํ๋ sampling ๊ธฐ๋ฒ์ ๋๋ค.
์ด๋ ๊ฐ๊ฐ์ Bootstrap์ ํฌ๊ธฐ๋ฅผ ์ค์ ํ ๋ค ๋ณต์์ถ์ถ์ ํตํด sampling์ ์งํํฉ๋๋ค.
() ์ฌ๋ด์ผ๋ก ๋ณต์์ถ์ถ์ ์งํํ๋ค๋ฉด ํด๋น ๋ฐ์ดํฐ๋ ๋ค๋ฅธ ๋ฐ์ดํฐ๋ค๊ณผ ์ฝ 66%๊ฐ๊ณ 33% ๋ค๋ฅด๋ค๊ณ ํฉ๋๋ค. )
Bagging์ ๊ฒฝ์ฐ ๋ชจ๋ ํ๋ก์ธ์ค๊ฐ ๋ณ๋ ฌ์ ์ผ๋ก ์งํ๋ฉ๋๋ค.
Low bias ๋ชจ๋ธ์ ์ฌ์ฉํด์ผ ํ๊ธฐ ๋๋ฌธ์ ๊ฐ๊ฐ์ base learner๋ฅผ overfit ์ํต๋๋ค.
์ด๋ ์ถฉ๋ถํ ๋ค๋ฅธ view point๋ฅผ ์ธ์์ผ ํ๊ธฐ ๋๋ฌธ์ ๋๋ค.
๋๋ถ๋ถ์ Bagging ๊ฐ์ ๊ฒฝ์ฐ decision tree๋ฅผ ์ฌ์ฉํ๊ธฐ ๋๋ฌธ์ ์์ฑ๋ ๋ชจ๋ธ์ ๋ชจ๋ full tree์ ๋ชจ๋ธ์ ๋๋ค.
์ด๋ ๊ฒ ์๊ธด ๋ฐ์ดํฐ๋ค์ ๋ฐํ์ผ๋ก Voting์ ์งํํฉ๋๋ค.
์ด๋ฅผ ๋ฏผ์ฃผ์ ์ธ ์๊ณ ๋ฆฌ์ฆ์ด๋ผ๊ณ ํ๋ ์ฌ๋๋ ์์ต๋๋ค.
๊ฐ์ฅ ์ค์ํ ๊ฒ์ ๊ฐ๊ฐ์ Base Learner๋ค์ด ์ถฉ๋ถํ ๋ค๋ฅธ VIew Point๋ฅผ ๊ฐ์ง๊ฒ ํ๋ ๊ฒ์ ๋๋ค.
Bagging์ ์ฌ์ฉํ๋ฉด ๊ต์ฅํ ์ข์ Performance๋ฅผ ๋ณด์ ๋๋ค.
ํ๋์ Decision Tree๋ฅผ ์ฌ์ฉํ ๋๋ณด๋ค ํจ์ฌ ์ข์ ์ฑ๋ฅ์ ๋ธ๋ค๋ ๋ป์ ๋๋ค.
๋ํ ์ฐ๋ฆฌ๊ฐ ์ค์ ํด์ค์ผํ Hyper Parameter์ด ์ ์ต๋๋ค.
๋จ์ํ base learner์ ๊ฐ์๋ง ์ ํด์ฃผ๋ฉด ๋ฉ๋๋ค.
์ด๋, ๋๋ฌด ๋ง์ ๊ฐ์์ base learner๋ฅผ ์ ํด์ฃผ๋ฉด ์ค๋ณต๋๋ view point๊ฐ ์๊ธธ ์ ์์ต๋๋ค.
์ฆ, ๋น์ทํ ๊ฒฐ๊ณผ๋ฅผ ๋์ถํ ๊ฐ๋ฅ์ฑ์ด ๋๋ค๋ ๊ฒ์ ๋๋ค.
๊ทธ๋์ ์ถฉ๋ถํ ํฐ ์์ base learner์ ๊ฐ์๋ฅผ ์ ํ๋ฉด ๋ฉ๋๋ค.
์ ๋ฆฌํ์๋ฉด Bagging์ ์ค์ ํด์ผํ ํ์ดํผํ๋ผ๋ฏธํฐ๊ฐ ๋ง์ง ์์ ์ฝ์ง๋ง ๋์ Performace๋ฅผ ๋ณด์ฌ์ค๋๋ค.
Bagging์ ํต์์ ์ผ๋ก 30๊ฐ ์ ๋์ .Base Learner๋ฅผ ์ฌ์ฉํฉ๋๋ค.
Bagging์ ๋ํ์ ์ฆ, Base Learner๋ฅผ 100๊ฐ ์ด์ ์ฌ์ฉํ๊ณ ์ถ์ ์ฌ๋๋ค์ ์ํด ๋์จ ๊ฒ์ด Random Forest์ ๋๋ค.
100๊ฐ๊ฐ ๋๋ Base Learner๋ฅผ ์ฌ์ฉํ๋๋ผ๋ ์ด๋ป๊ฒ ๋ค๋ฅธ View Point๋ฅผ ๊ฐ์ง ์ ์์ ์ง์ ๋ํ ๊ณ ์ฐฐ๋ก๋ถํฐ ์์๋ฉ๋๋ค.
โ Random Forest
Random Forest๋ ๊ตฌ์กฐ๊ฐ ๋ค๋ฅธ ์๊ณ ๋ฆฌ์ฆ๋ณด๋ค ๋งค์ฐ ๊ฐ๋จํ์ง๋ง ๋งค์ฐ ์ข์ ์ฑ๋ฅ์ ๋ณด์ ๋๋ค.
์ผ๋ฐ์ ์ธ Bagging๊ณผ ๋ค๋ฅด๊ฒ Random Forest๋ variables๊น์ง ๋๋ค์ผ๋ก ์ ํํฉ๋๋ค.
์ด๋ฅผ ๊ทธ๋ฆผ์ผ๋ก ๋ํ๋ด๋ฉด ์๋์ ๊ฐ์ต๋๋ค.
์์ ๊ฐ์ ๋ฐฉ๋ฒ์ ํตํด ๋ ๋ค์ํ View Point๋ฅผ ๊ฐ์ง ์ ์์ต๋๋ค.
ํน์ง
์๋๋ Data Number๋ง์ ์ ํํ๋ค๋ฉด Variable Number( Feature )๋ ํจ๊ป random ํ๊ฒ ์ ํํฉ๋๋ค..
์ฅ์ : ๋น ๋ฅธ ์๊ฐ์ ๋์ํ๋ค, hyperparameter๊ฐ์๊ฐ ์ ๋ค, interpretableํ๋ค.
๋จ์ : ๊ฐ์ ์๊ฒฌ์ ๋ง์ด ๋ด๋ base learner๊ฐ ์์ฑ๋ ์ ์๋ค.( ์ ๋นํ ํฐ ์ฌ์ด์ฆ์ base learner์ฌ์ฉํ๋ฉด base learner๊ฐ ๋์ด๋๋ค๊ณ ํด์ criticalํ ์ฑ๋ฅ ๋ณํ๊ฐ ์์ง๋ ์๋ค. )
Random Forest์ ๊ฒฝ์ฐ ๋ ๊ฐ์ง์ ํ์ดํผ ํ๋ผ๋ฏธํฐ๊ฐ ๋ค์ด๊ฐ๋ค๊ณ ์๊ฐํ๋ฉด ๋ฉ๋๋ค.
1. ๋ช ๊ฐ์ ํธ๋ฆฌ๋ฅผ ๋ง๋ค ๊ฒ์ธ๊ฐ?
2. ๋ณ์๋ฅผ ๋ช ๊ฐ์ฉ ๋ณผ ๊ฒ์ธ๊ฐ?
RF๋ํ ์๊ฐํด์ค์ผํ ํ์ดํผํ๋ผ๋ฏธํฐ์ ๊ฐ์๊ฐ ๋งค์ฐ ์ ์ง๋ง ๋์ ์ฑ๋ฅ์ ๋ ๋๋ค.
NN๊ณผ ๋ฌ๋ฆฌ architecture์ loss function ์ ์๊ฐํ์ง ์์๋ ๋ฉ๋๋ค.
ํ์ต ์์
ํ์ต ์์๋ ์๋์ ๊ฐ์ต๋๋ค.
๋ค์ ํฌ์คํ ์์๋ Boosting์๋ํด ํ์ตํ๊ฒ ์ต๋๋ค.
'AI > Machine Learning' ์นดํ ๊ณ ๋ฆฌ์ ๋ค๋ฅธ ๊ธ
[ML] Ensemble Method(4) - Gradient Boost (0) | 2022.11.29 |
---|---|
[ML] Ensemble Method(3) - AdaBoost (0) | 2022.11.29 |
[ML] Ensemble Method(1) - ํธํฅ-๋ถ์ฐ ๋๋ ๋ง(Bias-Variance Dilemma) (0) | 2022.11.26 |
[ML] Nearest Neighbor Method - KNN(3) (0) | 2022.11.11 |
[ML] Nearest Neighbor Method - ์ ๊ทํ(Normalization)(2) (0) | 2022.11.11 |