์ดํƒœํ™
ํ™'story
์ดํƒœํ™
์ „์ฒด ๋ฐฉ๋ฌธ์ž
์˜ค๋Š˜
์–ด์ œ
  • ๋ถ„๋ฅ˜ ์ „์ฒด๋ณด๊ธฐ (171)
    • TW (39)
    • AI (47)
      • ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ (10)
      • Kaggle (2)
      • Machine Learning (26)
      • Computer Vision (0)
      • Deep Learning (0)
      • ROS2 (7)
    • Computer Science (29)
      • Data Structure (0)
      • Algorithm (18)
      • Computer Architecture (5)
      • SOLID (0)
      • System Programing (6)
    • LOLPAGO (10)
      • ํ”„๋ก ํŠธ์—”๋“œ (10)
      • ๋ฐฑ์—”๋“œ (0)
    • BAEKJOON (2)
    • React (5)
    • ์–ธ์–ด (8)
      • C++ (8)
    • GIT (0)
    • MOGAKCO (19)
    • ๋ฏธ๊ตญ ์—ฌํ–‰๊ธฐ (3)
    • etc. (7)
      • Blog (2)
      • ์ฝœ๋ผํ†ค (2)

๋ธ”๋กœ๊ทธ ๋ฉ”๋‰ด

  • ํ™ˆ
  • ํƒœ๊ทธ
  • ๋ฐฉ๋ช…๋ก

๊ณต์ง€์‚ฌํ•ญ

์ธ๊ธฐ ๊ธ€

ํƒœ๊ทธ

  • baekjoon
  • NLP
  • pytorch
  • ๋”ฅ๋Ÿฌ๋‹
  • tw
  • ๋จธ์‹ ๋Ÿฌ๋‹
  • LOLPAGO
  • ML
  • ๊ธฐ๊ณ„ํ•™์Šต
  • computer architecture
  • C++
  • ROS2
  • ์•Œ๊ณ ๋ฆฌ์ฆ˜
  • kaggle
  • react
  • algorithm
  • ๋ฐฑ์ค€
  • Ai
  • computerscience
  • ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•

์ตœ๊ทผ ๋Œ“๊ธ€

์ตœ๊ทผ ๊ธ€

ํ‹ฐ์Šคํ† ๋ฆฌ

hELLO ยท Designed By ์ •์ƒ์šฐ.
์ดํƒœํ™

ํ™'story

[ML] Ensemble Method(1) - ํŽธํ–ฅ-๋ถ„์‚ฐ ๋”œ๋ ˆ๋งˆ(Bias-Variance Dilemma)
AI/Machine Learning

[ML] Ensemble Method(1) - ํŽธํ–ฅ-๋ถ„์‚ฐ ๋”œ๋ ˆ๋งˆ(Bias-Variance Dilemma)

2022. 11. 26. 01:24

๐Ÿค”Ensemble Method(์•™์ƒ๋ธ” ํ•™์Šต๋ฒ•)

ํ†ต๊ณ„ํ•™๊ณผ ๊ธฐ๊ณ„ ํ•™์Šต์—์„œ ์•™์ƒ๋ธ” ํ•™์Šต๋ฒ•์€ ํ•™์Šต ์•Œ๊ณ ๋ฆฌ์ฆ˜๋“ค์„ ๋”ฐ๋กœ ์“ฐ๋Š” ๊ฒฝ์šฐ์— ๋น„ํ•ด ๋” ์ข‹์€ ์˜ˆ์ธก ์„ฑ๋Šฅ์„ ์–ป๊ธฐ ์œ„ํ•ด ๋‹ค์ˆ˜์˜ ํ•™์Šต ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์‚ฌ์šฉํ•˜๋Š” ๋ฐฉ๋ฒ• ์ž…๋‹ˆ๋‹ค.

 

 ํ†ต๊ณ„ ์—ญํ•™์—์„œ์˜ ํ†ต๊ณ„์  ์•™์ƒ๋ธ”๊ณผ ๋‹ฌ๋ฆฌ ๊ธฐ๊ณ„ ํ•™์Šต์—์„œ์˜ ์•™์ƒ๋ธ”์€ ๋Œ€์ฒด ๋ชจ๋ธ๋“ค์˜ ๋‹จ๋‹จํ•œ ์œ ํ•œ ์ง‘ํ•ฉ์„ ๊ฐ€๋ฆฌํ‚ค์ง€๋งŒ, ์ผ๋ฐ˜์ ์œผ๋กœ ๊ทธ๋Ÿฌํ•œ ๋Œ€์ฒด ๋ชจ๋ธ ์‚ฌ์ด์— ํ›จ์”ฌ ๋” ์œ ์—ฐํ•œ ๊ตฌ์กฐ๋ฅผ ํ—ˆ์šฉํ•ฉ๋‹ˆ๋‹ค.

 

 

์ด๋ฒˆ ํฌ์ŠคํŒ…์—์„œ๋Š” ์•™์ƒ๋ธ” ํ•™์Šต๋ฒ•์„ ๋ฐฐ์šฐ๊ธฐ ์ „ ํŽธํ–ฅ๊ณผ ๋ถ„์‚ฐ์‚ฌ์ด์˜ ๋”œ๋ ˆ๋งˆ์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๋ ค๊ณ  ํ•ฉ๋‹ˆ๋‹ค.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

๐Ÿ”Ž ํŽธํ–ฅ ๋ถ„์‚ฐ ๋”œ๋ ˆ๋งˆ

์•™์ƒ๋ธ”์— ๋Œ€ํ•ด ์กฐ๊ธˆ ์‰ฝ๊ฒŒ ์„ค๋ช…ํ•˜๊ธฐ ์œ„ํ•ด ์˜ˆ์‹œ๋ฅผ ๋“ค์–ด๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.

 

 

 

 

์œ„์˜ ๊ทธ๋ฆผ๊ณผ ๊ฐ™์ด ํ•œ ๊ฐ€์ง€์˜ ๋ฌธ์ œ์— ๋Œ€ํ•ด ์—ฌ๋Ÿฌ๊ฐ€์ง€์˜ ๋ชจ๋ธ์„ ์‚ฌ์šฉํ•˜์—ฌ ํ•™์Šต์„ ์ง„ํ–‰ํ•œ๋‹ค๊ณ  ํ•˜๊ฒ ์Šต๋‹ˆ๋‹ค.

 

์ด๋•Œ ํ•œ ๊ฐœ์˜ ๋ชจ๋ธ์ด ํ•™์Šตํ•˜๋Š” ๋ฌธ์ œ๊ฐ€ Training set ์ „์ฒด ๋ฐ์ดํ„ฐ๋ผ๋ฉด ๋Œ€๋ถ€๋ถ„ ๋น„์Šทํ•œ ๊ฒฐ๊ณผ๋ฅผ ๋„์ถœํ•ฉ๋‹ˆ๋‹ค.

 

๊ทธ๋ ‡๊ธฐ ๋•Œ๋ฌธ์— ๋ชจ๋ธ์ด ์ „์ฒด ํ•™์Šต ๋ฐ์ดํ„ฐ๊ฐ€ ์•„๋‹Œ ๋ฐ์ดํ„ฐ์˜ ์ผ๋ถ€๋ฅผ ๋‚˜๋ˆ„์–ด ํ•™์Šต์„ ์ง„ํ–‰ํ•ฉ๋‹ˆ๋‹ค.

 

์ด๋ฅผ ์‰ฝ๊ฒŒ ๋น„์œ ํ•˜์ž๋ฉด ์ตœ๊ทผ ์žˆ์—ˆ๋˜ ์ˆ˜๋Šฅ์—์„œ 21๋ฒˆ 30๋ฒˆ ๋ฌธ์ œ๋ฅผ ์ž˜ ํ‘ธ๋Š” ํ•™์ƒ๊ณผ ๋‚˜๋จธ์ง€ ์ค€ ํ‚ฌ๋Ÿฌ๋ฌธ์ œ๋ฅผ ์ž˜ ํ‘ธ๋Š” ํ•™์ƒ์„ ๋‚˜๋ˆ„์–ด ํ•™์Šต์„ ์‹œํ‚ต๋‹ˆ๋‹ค.

 

ํ•ด๋‹น ํ•™์ƒ๋“ค์ด ํ•จ๊ผ ์ˆ˜๋Šฅ ๋ฌธ์ œ๋ฅผ ํ‘ผ๋‹ค๋ฉด ๋” ์ข‹์€ ์„ฑ๋Šฅ์„ ๋‚ผ ์ˆ˜ ์žˆ๋‹ค๋Š” ๊ฒƒ์ž…๋‹ˆ๋‹ค.

 

 

 

์œ„์˜ ๋ฐ์ดํ„ฐ์—์„œ ๋žœ๋ค์œผ๋กœ ์ƒ˜ํ”Œ๋ง์„ ํ•˜์—ฌ ๋ฐ์ดํ„ฐ๋ฅผ ํ•™์Šตํ•œ๋‹ค๋ฉด ์กฐ๊ธˆ์”ฉ ๋‹ค๋ฅธ ๊ฒฐ๊ณผ๋ฅผ ๋„์ถœํ•  ๊ฒƒ์ž…๋‹ˆ๋‹ค.

 

๊ฐ™์€ ๋ฐ์ดํ„ฐ๋ฅผ ์‚ฌ์šฉํ•œ๋‹ค๊ณ  ํ•˜๋”๋ผ๋„ ํ•˜์ดํผํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ๋‹ค๋ฅด๊ฒŒ ํ•  ์ˆ˜๋„ ์žˆ์Šต๋‹ˆ๋‹ค.

 

์˜ˆ๋ฅผ ๋“ค์–ด ๊ฐ™์€ Decision Tree๋”๋ผ๋„ Depth๋ฅผ ๋‹ค๋ฅด๊ฒŒ ํ•œ๋‹ค๋ฉด ๋‹ค๋ฅธ prediction ๊ฒฐ๊ณผ๋ฅผ ์–ป์„ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

 

 

ํ™•๋ฅ ์  ์•Œ๊ณ ๋ฆฌ์ฆ˜(Stochastic Algorithm)๊ณผ ๋ฐ˜๋Œ€๋˜๋Š” ๊ฐœ๋…์œผ๋กœ ํ™•์ •์  ์•Œ๊ณ ๋ฆฌ์ฆ˜(Determinstic Algorithm)์ด ์กด์žฌํ•ฉ๋‹ˆ๋‹ค.

 

์ฆ‰, ๊ฐ™์€ ๋ฐ์ดํ„ฐ๋ฅผ ๊ฐ€์ง€๊ณ  ์žˆ๋‹ค๋ฉด ๋ชจ๋ธ์„ ๋งŒ๋“ค ๋•Œ๋งˆ๋‹ค ๊ฒฐ๊ณผ๊ฐ€ ๊ฐ™๋‹ค๋Š” ๋œป์ž…๋‹ˆ๋‹ค.

 

 

 

ํ•˜์ง€๋งŒ NN๊ณผ ๊ฐ™์€ ํ™•๋ฅ  ๊ธฐ๋ฐ˜์˜ ๋ชจ๋ธ์€ ๋žœ๋ค์„ฑ์ด ๋‚ดํฌ๋˜์–ด ๋‹ค๋ฅธ ๊ฒฐ๊ณผ๊ฐ€ ๋‚˜์˜ฌ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

 

 

๋จผ์ € ํŽธํ–ฅ๊ณผ ๋ถ„์‚ฐ์ด ์–ด๋–ค ๊ฒƒ์ธ๊ฐ€์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๋„๋ก ํ•˜๊ฒ ์Šต๋‹ˆ๋‹ค.

 

 

 

 

 

 

 

 

โœ๏ธ ํŽธํ–ฅ(Bias)๊ณผ ๋ถ„์‚ฐ(Variance)์ด๋ž€?

ํŽธํ–ฅ(Bias)

ํŽธํ–ฅ์ด๋ž€ ์‹ค์ œ ๊ฐ’๊ณผ ์–ด๋– ํ•œ ๊ฐ’์œผ๋กœ ๋‚˜ํƒ€๋‚  ๊ฒƒ์ด๋ผ๊ณ  ๊ธฐ๋Œ€๋˜๋Š” ์˜ˆ์ธก๊ฐ’์˜ ํ‰๊ท ๊ณผ์˜ ์ฐจ์ด์ž…๋‹ˆ๋‹ค.

 

์ด๋ฅผ ์ˆ˜์‹์œผ๋กœ ๋‚˜ํƒ€๋‚ด๋ฉด ์•„๋ž˜์™€ ๊ฐ™์Šต๋‹ˆ๋‹ค.

 

 

 

 

 

 

๋ถ„์‚ฐ(Variance)

๋ถ„์‚ฐ์€ ์˜ˆ์ธก๊ฐ’๊ณผ ์˜ˆ์ธก๊ฐ’์˜ ํ‰๊ท ๊ณผ์˜ ์ฐจ์ด์ž…๋‹ˆ๋‹ค.

 

๋ง ๊ทธ๋Œ€๋กœ ์˜ˆ์ธก์น˜ ๊ฐ’๊ณผ์˜ ๋–จ์–ด์ ธ์žˆ๋Š” ์ •๋„๋ฅผ ๋‚˜ํƒ€๋ƒ…๋‹ˆ๋‹ค.

 

์ฆ‰, ์˜ˆ์ธก๊ฐ’์˜ ๋ณ€๋™์„ฑ์ด ์–ผ๋งˆ๋‚˜ ํฐ ๊ฐ€๋ฅผ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค.

 

์ด๋ฅผ ์ˆ˜์‹์œผ๋กœ ๋‚˜ํƒ€๋‚ด๋ฉด ์•„๋ž˜์™€ ๊ฐ™์Šต๋‹ˆ๋‹ค.(ํŽธ์ฐจ ์ œ๊ณฑ์˜ ํ‰๊ท )

 

 

 

 

 

 

 

 

โœ๏ธ ํŽธํ–ฅ-๋ถ„์‚ฐ ๋ถ„ํ•ด(Bias-Variance Decomposition)

์šฐ๋ฆฌ๊ฐ€ ๋ฐฐ์› ๋˜ Error์ค‘ ๊ฐ€์žฅ  ๋Œ€ํ‘œ์ ์ธ Error ๋Š” MSE(Mean Squared Error)์ž…๋‹ˆ๋‹ค.

 

ํ•ด๋‹น ์ˆ˜์‹์„ ์ „๊ฐœํ•˜์—ฌ ์‚ดํŽด๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.

 

 

 

 

 

์œ„์˜ ์ˆ˜์‹์„ ํ†ตํ•ด  ๊ฒฐ๊ตญ ํŽธ์ฐจ์™€ ๋ถ„์‚ฐ์˜ ํ•ฉ์œผ๋กœ ๋‚˜ํƒ€๋‚˜์ ธ ์žˆ๋‹ค๋Š” ๊ฒƒ์„ ์•Œ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

์ฆ‰, Error๊ฐ€ fixed ๋˜์–ด ์žˆ๋Š” ์ƒํ™ฉ์—์„œ ์–ด๋–ค model์˜ Bias๊ฐ€ ๋‚ฎ๋‹ค๋Š” ๊ฒƒ์€ ๊ฐ™์€ MSE์—์„œ Variance๊ฐ€ ์ปค์ง€๊ณ  ๋ฐ˜๋Œ€๋กœ Bias๊ฐ€ ํฌ๋‹ค๋Š” ๊ฒƒ์€ Variance๊ฐ€ ์ž‘๋‹ค๋Š” ๊ฒƒ์„ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค.

 

์ด๋Š” ํŽธํ–ฅ๊ณผ ๋ถ„์‚ฐ์ด trade-off์˜ ๊ด€๊ณ„์— ์žˆ๋‹ค๊ณ  ํ•  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

 

 

 

 

 

 

โœ๏ธ ํŽธํ–ฅ-๋ถ„์‚ฐ๊ณผ Over/Underfit์˜ ๊ด€๊ณ„

Bias๋ผ๋Š” ๊ฒƒ์€ ๊ฒฐ๊ตญ model์˜ fitting๋Šฅ๋ ฅ์ž…๋‹ˆ๋‹ค.

 

Bias๋ฅผ ๋‚ฎ์ถ”์–ด model์˜ fitting๋Šฅ๋ ฅ์„ ๋Š˜๋ฆฌ๋ฉด ์œ„์—์„œ ์„ค๋ช…ํ–ˆ๋“ฏ ํŽธํ–ฅ๊ณผ ๋ถ„์‚ฐ์€ trade-off๊ด€๊ณ„๋ผ์„œ HIgh variance๋ฅผ ๊ฐ€์ง€๊ฒŒ ๋ฉ๋‹ˆ๋‹ค.

 

์ด ๊ฒฝ์šฐ ๋น„์Šทํ•œ ๊ฐ’์˜ ๋ฐ์ดํ„ฐ๊ฐ€ ๋“ค์–ด์™€ ๋ชจ๋ธ ํ•™์Šต์„ ๋‹ค์‹œ ์ง„ํ–‰ํ•œ๋‹ค๋ฉด ๊ฐ™์€ ๋ชจ๋ธ์„ ์‚ฌ์šฉํ•˜๋”๋ผ๋„ ๊ทธ๋ž˜ํ”„๋Š” ๋งค์šฐ ๋ฏผ๊ฐํ•˜๊ฒŒ ๋‹ฌ๋ผ์งˆ ๊ฒƒ์ž…๋‹ˆ๋‹ค.

 

์œ„์™€ ๊ฐ™์€ ๊ฒฝ์šฐ๋ฅผ Overfit์ด๋ผ๊ณ  ํ•ฉ๋‹ˆ๋‹ค.

 

 

 

๋ฐ˜๋Œ€๋กœ Bias๊ฐ€ ๋†’๋‹ค๊ณ  ํ•˜๋ฉด ๋น„์Šทํ•œ ๊ฐ’์˜ ๋ฐ์ดํ„ฐ๊ฐ€ ๋“ค์–ด์™€ ๋ชจ๋ธ ํ•™์Šต์„ ๋‹ท๊ธฐ ์ง„ํ–‰ํ•œ๋‹ค๊ณ  ํ•˜๋”๋ผ๋„ ๊ทธ๋ž˜ํ”„์˜ ์ฐจ์ด๋Š” ํฌ์ง€ ์•Š์Šต๋‹ˆ๋‹ค.

 

์ฆ‰, ๋‚ฎ์€ Variance๋ฅผ ๊ฐ€์ง„๋‹ค๋Š” ๋œป์ด๋ฉฐ ์ด๋ฅผ Underfit์ด๋ผ๊ณ  ํ•ฉ๋‹ˆ๋‹ค.

 

 

 

 

 

 

 

 

์ด๋ฅผ running curve๋กœ ๋‚˜ํƒ€๋‚ด๋ฉด ์•„๋ž˜์™€ ๊ฐ™์Šต๋‹ˆ๋‹ค.

 

 

 

 

x์ถ•์€ ๋Šฅ๋ ฅ์น˜์ด์ž ๋ณต์žก๋„ ์ž…๋‹ˆ๋‹ค.

 

์ตœ์ ์˜ ๋Šฅ๋ ฅ์น˜๋ฅผ ๊ฐ€์ง„ ๋ชจ๋ธ์€ ๊ฒฐ๊ตญ ์ ๋‹นํ•œ(?) ์ •๋„๋ฅผ ์ฐพ์•„์•ผ ํ•ฉ๋‹ˆ๋‹ค.

 

 

 

 

 

์•„๋ž˜์˜ ๊ทธ๋ฆผ์—์„œ C์˜ ๊ฒฝ์šฐ Capacity๊ฐ€ ๋†’์€ ๋ชจ๋ธ๋กœ Low Bias / High Variance ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค.

 

D์˜ ๊ฒฝ์šฐ Capacity๊ฐ€ ๋‚ฎ์€ ๋ชจ๋ธ๋กœ High Bias / Low Variance ๋ชจ๋ธ์ธ ๊ฒƒ์„ ์•Œ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

 

 

 

 

 

 

 

๋‹ค์Œ ํฌ์ŠคํŒ…์—์„œ๋Š” ์•™์ƒ๋ธ”์˜ ๊ธฐ๋ฒ•์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๋„๋ก ํ•˜๊ฒ ์Šต๋‹ˆ๋‹ค.

 

 

'AI > Machine Learning' ์นดํ…Œ๊ณ ๋ฆฌ์˜ ๋‹ค๋ฅธ ๊ธ€

[ML] Ensemble Method(3) - AdaBoost  (0) 2022.11.29
[ML] Ensemble Method(2) - Bagging & Random Forest  (0) 2022.11.26
[ML] Nearest Neighbor Method - KNN(3)  (0) 2022.11.11
[ML] Nearest Neighbor Method - ์ •๊ทœํ™”(Normalization)(2)  (0) 2022.11.11
[ML] Nearest Neighbor Method - Distance Metric(1)  (0) 2022.11.11
    'AI/Machine Learning' ์นดํ…Œ๊ณ ๋ฆฌ์˜ ๋‹ค๋ฅธ ๊ธ€
    • [ML] Ensemble Method(3) - AdaBoost
    • [ML] Ensemble Method(2) - Bagging & Random Forest
    • [ML] Nearest Neighbor Method - KNN(3)
    • [ML] Nearest Neighbor Method - ์ •๊ทœํ™”(Normalization)(2)
    ์ดํƒœํ™
    ์ดํƒœํ™
    ๊ณต๋ถ€ํ•˜์ž ํƒœํ™์•„

    ํ‹ฐ์Šคํ† ๋ฆฌํˆด๋ฐ”