์ดํƒœํ™
ํ™'story
์ดํƒœํ™
์ „์ฒด ๋ฐฉ๋ฌธ์ž
์˜ค๋Š˜
์–ด์ œ
  • ๋ถ„๋ฅ˜ ์ „์ฒด๋ณด๊ธฐ (171)
    • TW (39)
    • AI (47)
      • ์ž์—ฐ์–ด ์ฒ˜๋ฆฌ (10)
      • Kaggle (2)
      • Machine Learning (26)
      • Computer Vision (0)
      • Deep Learning (0)
      • ROS2 (7)
    • Computer Science (29)
      • Data Structure (0)
      • Algorithm (18)
      • Computer Architecture (5)
      • SOLID (0)
      • System Programing (6)
    • LOLPAGO (10)
      • ํ”„๋ก ํŠธ์—”๋“œ (10)
      • ๋ฐฑ์—”๋“œ (0)
    • BAEKJOON (2)
    • React (5)
    • ์–ธ์–ด (8)
      • C++ (8)
    • GIT (0)
    • MOGAKCO (19)
    • ๋ฏธ๊ตญ ์—ฌํ–‰๊ธฐ (3)
    • etc. (7)
      • Blog (2)
      • ์ฝœ๋ผํ†ค (2)

๋ธ”๋กœ๊ทธ ๋ฉ”๋‰ด

  • ํ™ˆ
  • ํƒœ๊ทธ
  • ๋ฐฉ๋ช…๋ก

๊ณต์ง€์‚ฌํ•ญ

์ธ๊ธฐ ๊ธ€

ํƒœ๊ทธ

  • ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•
  • C++
  • algorithm
  • ์•Œ๊ณ ๋ฆฌ์ฆ˜
  • ๋”ฅ๋Ÿฌ๋‹
  • pytorch
  • computer architecture
  • baekjoon
  • ๋จธ์‹ ๋Ÿฌ๋‹
  • ROS2
  • LOLPAGO
  • ๋ฐฑ์ค€
  • computerscience
  • kaggle
  • react
  • tw
  • ๊ธฐ๊ณ„ํ•™์Šต
  • Ai
  • ML
  • NLP

์ตœ๊ทผ ๋Œ“๊ธ€

์ตœ๊ทผ ๊ธ€

ํ‹ฐ์Šคํ† ๋ฆฌ

hELLO ยท Designed By ์ •์ƒ์šฐ.
์ดํƒœํ™

ํ™'story

[ML] Neural Network(2) - Linear Separability
AI/Machine Learning

[ML] Neural Network(2) - Linear Separability

2022. 12. 1. 00:29

๐Ÿค” Neural Network

์ธ๊ณต์‹ ๊ฒฝ๋ง(ไบบๅทฅ็ฅž็ถ“็ถฒ, ์˜์–ด: artificial neural network, ANN)์€ ๊ธฐ๊ณ„ํ•™์Šต๊ณผ ์ธ์ง€๊ณผํ•™์—์„œ ์ƒ๋ฌผํ•™์˜ ์‹ ๊ฒฝ๋ง(๋™๋ฌผ์˜ ์ค‘์ถ”์‹ ๊ฒฝ๊ณ„์ค‘ ํŠนํžˆ ๋‡Œ)์—์„œ ์˜๊ฐ์„ ์–ป์€ ํ†ต๊ณ„ํ•™์  ํ•™์Šต ์•Œ๊ณ ๋ฆฌ์ฆ˜์ž…๋‹ˆ๋‹ค.

 

์ธ๊ณต์‹ ๊ฒฝ๋ง์€ ์‹œ๋ƒ…์Šค์˜ ๊ฒฐํ•ฉ์œผ๋กœ ๋„คํŠธ์›Œํฌ๋ฅผ ํ˜•์„ฑํ•œ ์ธ๊ณต ๋‰ด๋Ÿฐ(๋…ธ๋“œ)์ด ํ•™์Šต์„ ํ†ตํ•ด ์‹œ๋ƒ…์Šค์˜ ๊ฒฐํ•ฉ ์„ธ๊ธฐ๋ฅผ ๋ณ€ํ™”์‹œ์ผœ, ๋ฌธ์ œ ํ•ด๊ฒฐ ๋Šฅ๋ ฅ์„ ๊ฐ€์ง€๋Š” ๋ชจ๋ธ ์ „๋ฐ˜์„ ๊ฐ€๋ฆฌํ‚ต๋‹ˆ๋‹ค.

 

์ด๋ฒˆ ํฌ์ŠคํŒ…์—์„œ๋Š” ์„ ํ˜• ๋ถ„๋ฆฌ ๊ฐ€๋Šฅ์„ฑ(Linear Separability)์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

๐Ÿ”Ž  Linear Separability(์„ ํ˜• ๋ถ„๋ฆฌ ๊ฐ€๋Šฅ์„ฑ)

Linear Separability๋Š” ์ง์„  ํ•˜๋‚˜๋กœ ์–ด๋–ป๊ฒŒ ๊ณต๊ฐ„์„ ๋ถ„๋ฆฌํ•  ๊ฒƒ์ธ๊ฐ€์— ๋Œ€ํ•œ ์ด๋ก ์ž…๋‹ˆ๋‹ค.

 

์•„๋ž˜์™€ ๊ฐ™์€ ๋ฐ์ดํ„ฐ๊ฐ€ ์กด์žฌํ•œ๋‹ค๊ณ  ํ•˜๊ฒ ์Šต๋‹ˆ๋‹ค.

 

 

 

์ด๋•Œ ๋นจ๊ฐ„์„ ์„ ๊ธฐ์ค€์œผ๋กœ ๋‘ ๊ฐ€์ง€ ํด๋ž˜์Šค์˜ ๋ฐ์ดํ„ฐ๋ฅผ ๋‚˜๋ˆŒ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

๋นจ๊ฐ„์„ ์˜ x์ ˆํŽธ๊ณผ y์ ˆํŽธ์ด ๊ฐ๊ฐ 2๋ผ๋ฉด ์œ„์™€ ๊ฐ™์€ ์‹์„ ์–ป์„ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

๊ทธ๋ž˜์„œ ๋นจ๊ฐ„์„ ์˜ ์œ„์ชฝ ์˜์—ญ์€ $g(x) > 0$์— ํ•ด๋‹นํ•˜์—ฌ Class 1์„ ์˜๋ฏธํ•˜๋ฉฐ, ์•„๋ž˜์ชฝ ์˜์—ญ์€ $g(x) < 0$์— ํ•ด๋‹นํ•˜์—ฌ Class -1์„ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค.

 

 

 

์ด๋ฅผ ์ผ๋ฐ˜ํ™”ํ•˜๊ฒŒ ๋œ๋‹ค๋ฉด $g(x_1, x_2) = w_1x_1 + w_2x_2 + w_0 = 0$์ด๋ผ๊ณ  ํ•  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

์ด๋•Œ $w_1$, $w_2$, $w_0$์€ ํŒŒ๋ผ๋ฏธํ„ฐ๋ผ๊ณ  ๋ถ€๋ฆ…๋‹ˆ๋‹ค.

 

์ด๋ฅผ ๋„คํŠธ์›Œํฌ์— ๋Œ€ํ•œ ๊ทธ๋ฆผ์œผ๋กœ ๋‚˜ํƒ€๋‚ด๋ฉด ์•„๋ž˜์™€ ๊ฐ™์Šต๋‹ˆ๋‹ค.

 

 

 

 

 

$x_1$, $x_2$๋ผ๋Š” ๋ฐ์ดํ„ฐ๊ฐ€ ๋“ค์–ด์™”์„๋•Œ ๊ฐ๊ฐ์— ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ๊ณฑํ•œ ๋’ค ์ด๋ฅผ ๋”ํ•ด์ค๋‹ˆ๋‹ค.

 

์ด๋•Œ $w_0$๋Š” bias๋ฅผ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค.

 

0๋ณด๋‹ค ํฐ ์ง€ ์ž‘์€ ์ง€์— ๋Œ€ํ•œ ํŒ๋‹จ ๊ธฐ์ค€์„ ํ†ตํ•ด ํ•ด๋‹น ๋ฐ์ดํ„ฐ๊ฐ€ ์–ด๋–ค Class์— ์กด์žฌํ•˜๋Š”์ง€ ๊ฒฐ์ •ํ•ฉ๋‹ˆ๋‹ค.

 

 

 

 

 

 

 

โœ Multivariate Problem

์œ„์˜ ์‹์„ Multivariate Problem์œผ๋กœ ์ผ๋ฐ˜ํ™”ํ•˜๊ฒŒ ๋œ๋‹ค๋ฉด ์•„๋ž˜์˜ ์‹์„ ์–ป์„ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

 

๋ฒกํ„ฐ์˜ ํ˜•ํƒœ๋กœ ๋‚˜ํƒ€๋ƒˆ์„ ๋•Œ $g(x) = w^Tx$๋ผ๋Š” ๊ฐ’์„ ์–ป์„ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค. ( $w_0$ ๋Š” ๋ฒกํ„ฐ์— $w_0$์™€ $x_0 = 1$์„ ์ถ”๊ฐ€ํ•˜์—ฌ ์ƒ๋žตํ•  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.)

 

์ด๋ฅผ ๊ทธ๋ฆผ์œผ๋กœ ๋‚˜ํƒ€๋‚ด๋ฉด ์•„๋ž˜์™€ ๊ฐ™์Šต๋‹ˆ๋‹ค.

 

 

 

 

์œ„์˜ ๋นจ๊ฐ„์ƒ‰ ๊ธ€์”จ๋Š” ์™ธ์›Œ๋‘์‹œ๋Š” ๊ฒƒ์„ ์ถ”์ฒœ๋“œ๋ฆฝ๋‹ˆ๋‹ค.

 

weight๋Š” ํŒŒ๋ผ๋ฏธํ„ฐ๋ผ๊ณ  ์ƒ๊ฐํ•˜๋ฉด ๋˜๊ณ  scale์— ๊ด€ํ•œ ๋‚ด์šฉ์€ ์ดํ›„์— ์„ค๋ช…ํ•˜๊ฒ ์Šต๋‹ˆ๋‹ค.

 

weighted summation๊นŒ์ง€ ์ง„ํ–‰ํ•œ ๋’ค output์„ ๋‚ด๋Š” ๊ฒƒ์ด ์•„๋‹ˆ๋ผ ํ™œ์„ฑํ™” ํ•จ์ˆ˜๊นŒ์ง€ ๊ฑฐ์นœ ํ›„์— output์„ ๋‚ด์•ผ ํ•œ๋‹ค๋Š” ๊ฒƒ์„ ์ฃผ์˜ํ•ด์•ผ ํ•ฉ๋‹ˆ๋‹ค.

 

 

 

 

 

 

 

โœ Activation function

์•ž์˜ ๋‚ด์šฉ์—์„œ ํ™œ์„ฑํ™” ํ•จ์ˆ˜๋Š” 0๋ณด๋‹ค ํฌ๋ฉด 1์ด๋ผ๋Š” ๊ฐ’์„ 0๋ณด๋‹ค ์ž‘์œผ๋ฉด 0์ด๋ผ๋Š” ๊ฐ’์„ ๋‚ด๋ณด๋ƒ…๋‹ˆ๋‹ค.

 

์•„๋ž˜์˜ ๊ทธ๋ฆผ์—์„œ ๊ฐ€์žฅ ์šฐ์ธก์˜ ๊ทธ๋ž˜ํ”„๋ฅผ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค. ( ์˜คํƒ€.. 1๋ณด๋‹ค ํฐ ๊ฒƒ์ด ์•„๋‹ˆ๋ผ 0๋ณด๋‹ค ํฐ ๊ฒƒ )

 

 

 

 

ํ•ด๋‹น ๊ทธ๋ž˜ํ”„์˜ ๊ฐ€์žฅ ํฐ ๋ฌธ์ œ๋Š” ๋ฏธ๋ถ„์ด ๋ถˆ๊ฐ€๋Šฅํ•˜๋‹ค๋Š” ๊ฒƒ์ž…๋‹ˆ๋‹ค.

 

๋Œ€๋ถ€๋ถ„์˜ ๋จธ์‹ ๋Ÿฌ๋‹ ์•Œ๊ณ ๋ฆฌ์ฆ˜๋“ค์€ ๋ฏธ๋ถ„์„ ํ†ตํ•ด ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ•˜๋Š”๋ฐ ๋ฏธ๋ถ„์ด ๋˜์ง€ ์•Š๋Š”๋‹ค๋ฉด ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ํ•™์Šต์‹œํ‚ฌ ์ˆ˜ ์—†์Šต๋‹ˆ๋‹ค.

 

์ด๋ฅผ ํ•ด๊ฒฐํ•œ ๊ฒƒ์ด ์™ผ์ชฝ ๋‘ ๊ฐœ์˜ ๊ทธ๋ž˜ํ”„์ž…๋‹ˆ๋‹ค.

 

ํ•˜์ง€๋งŒ Logistic function์˜ ๊ฒฝ์šฐ 0 ~ 1 ์‚ฌ์ด์˜ ๊ฐ’์— ๊ฐ‡ํ˜€์žˆ๊ธฐ ๋•Œ๋ฌธ์— Negative์˜ ๊ฐ’์„ ์–ป์„ ์ˆ˜ ์—†์Šต๋‹ˆ๋‹ค.

 

์ด๋ฅผ ํ•ด๊ฒฐํ•œ ๊ฒƒ์ด ํ•˜์ดํผ๋ณผ๋ฆญ ํƒ„์  ํŠธ, ๊ฐ€์žฅ ์™ผ์ชฝ์˜ ๊ทธ๋ž˜ํ”„๋ฅผ ์˜๋ฏธํ•ฉ๋‹ˆ๋‹ค.

 

 

 

์˜ˆ์‹œ๋ฅผ ํ†ตํ•ด ์ด๋ฅผ ํ™•์ธํ•˜๊ฒ ์Šต๋‹ˆ๋‹ค.

 

 

 

 

์œ„์™€ ๊ฐ™์€ ๊ทธ๋ž˜ํ”„๊ฐ€ ์žˆ๋‹ค๊ณ  ํ–ˆ์„ ๋•Œ ์œ„์—์„œ ๋ณด์•˜๋˜ ์„ธ ๊ฐ€์ง€ ํ™œ์„ฑํ™” ํ•จ์ˆ˜๋ฅผ ์ ์šฉํ•˜๋ฉด ์•„๋ž˜์˜ ํ‘œ์™€ ๊ฐ™์ด ๋‚˜ํƒ€๋‚ผ ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

 

 

 

 

 

 

 

 

 

 

 

 

 

๋‹ค์Œ ํฌ์ŠคํŒ…์—์„œ๋Š” MLP์— ๋Œ€ํ•ด ์•Œ์•„๋ณด๊ฒ ์Šต๋‹ˆ๋‹ค.

'AI > Machine Learning' ์นดํ…Œ๊ณ ๋ฆฌ์˜ ๋‹ค๋ฅธ ๊ธ€

[ML] Neural Network(4) - ์ˆœ์ „ํŒŒ(Feedforward Process)  (0) 2022.12.01
[ML] Neural Network(3) - MLP(Multilayer Perceptron)  (0) 2022.12.01
[ML] Neural Network(1) - Introduction  (0) 2022.12.01
[ML] Ensemble Method(6) - Summary  (0) 2022.11.30
[ML] Ensemble Method(5) - XGBoost  (0) 2022.11.30
    'AI/Machine Learning' ์นดํ…Œ๊ณ ๋ฆฌ์˜ ๋‹ค๋ฅธ ๊ธ€
    • [ML] Neural Network(4) - ์ˆœ์ „ํŒŒ(Feedforward Process)
    • [ML] Neural Network(3) - MLP(Multilayer Perceptron)
    • [ML] Neural Network(1) - Introduction
    • [ML] Ensemble Method(6) - Summary
    ์ดํƒœํ™
    ์ดํƒœํ™
    ๊ณต๋ถ€ํ•˜์ž ํƒœํ™์•„

    ํ‹ฐ์Šคํ† ๋ฆฌํˆด๋ฐ”