ADsP

ADsP 3๊ณผ๋ชฉ 5-4 ์ธ๊ณต์‹ ๊ฒฝ๋ง ๋ถ„์„ | ์ •๋ฆฌ๐Ÿ“

studyrooom 2024. 9. 30. 16:57
SMALL

์ธ๊ณต์‹ ๊ฒฝ๋ง: ๋‰ด๋Ÿด ๋„คํŠธ์›Œํฌ(๋‡Œ ์‹ ๊ฒฝ์‹œ์Šคํ…œ)์—์„œ ์˜๊ฐ์„ ๋ฐ›์•„ ๋งŒ๋“ค์–ด์ง„ ๋ชจํ˜•

  • ๋ถ„๋ฅ˜ ๋ฐ ํšŒ๊ท€ ๋ฌธ์ œ์— ์‚ฌ์šฉ ๊ฐ€๋Šฅ
    ๋น„์ง€๋„ ํ•™์Šต์—๋„ ์‚ฌ์šฉ ๊ฐ€๋Šฅ
  • ๋‹จ์ˆœํ•œ ๊ณ„์‚ฐ unit์„ ๋งค์šฐ ๋งŽ์ด ์ƒ์„ฑํ•˜๊ณ  ์ด๋ฅผ ์ƒํ˜ธ ๊ฒฐํ•ฉํ•˜๊ฒŒ๋” ๋งŒ๋“  ์‹œ์Šคํ…œ
    ์ด๋Ÿฌํ•œ ์‹œ์Šคํ…œ์€ ๋ณต์žกํ•œ ํ˜„์ƒ์„ ์žฌํ˜„ํ•  ์ˆ˜ ์žˆ์Œ
  • ๋ฐ์ดํ„ฐ ๋‚ด ๋น„์„ ํ˜•์ ์ธ ๊ด€๊ณ„๋ฅผ ํฌ์ฐฉํ•˜๊ณ  ์ด๋ฅผ ํ†ตํ•ด ๋ชฉํ‘œ ๋ณ€์ˆ˜๋ฅผ ์˜ˆ์ธก
  • ์ผ๋ฐ˜์ ์œผ๋กœ ๋‹ค์ธต ํผ์…‰ํŠธ๋ก ์„ ์˜๋ฏธํ•จ
    ์ •๋ณด์˜ ํ๋ฆ„: ์ž…๋ ฅ์ธต → ์€๋‹‰์ธต → ์ถœ๋ ฅ์ธต
  • ์—ญ์ „ํŒŒ ์•Œ๊ณ ๋ฆฌ์ฆ˜(Back Propagation): ์—ฐ๊ฒฐ๊ฐ•๋„๋ฅผ ๊ฐฑ์‹ ํ•˜๊ธฐ ์œ„ํ•ด ์˜ˆ์ธก๋œ ๊ฒฐ๊ณผ์™€ ์‹ค์ œ๊ฐ’์˜ ์ฐจ์ด์ธ ์—๋Ÿฌ์˜ ์—ญ์ „ํŒŒ๋ฅผ ํ†ตํ•ด ๊ฐ€์ค‘์น˜๋ฅผ ์กฐ์ • (๋ชฉ์ ํ•จ์ˆ˜๋ฅผ ์ตœ์ ํ™” ํ•˜๊ธฐ ์œ„ํ•ด ์‚ฌ์šฉํ•จ)
    ์ธ๊ณต์‹ ๊ฒฝ๋ง์—์„œ ๋™์ผ ์ž…๋ ฅ์ธต์— ๋Œ€ํ•ด ์›ํ•˜๋Š” ๊ฐ’์ด ์ถœ๋ ฅ๋˜๋„๋ก ๊ฐœ๊ฐœ์˜ ๊ฐ€์ค‘์น˜(weight)๋ฅผ ์กฐ์ •ํ•˜๋Š” ๋ฐฉ๋ฒ•
  • neuralet( ) ํ•จ์ˆ˜ ์‚ฌ์šฉ ์‹œ ์ผ๋ฐ˜ํ™” ๊ฐ€์ค‘์น˜(generalized weight)๋Š” ๋กœ์ง€์Šคํ‹ฑ ํšŒ๊ท€๋ชจํ˜•์—์„œ์˜ ํšŒ๊ท€๊ณ„์ˆ˜์™€ ๋™์ผํ•˜๊ฒŒ ํ•ด์„๋จ
  • ์œ ์šฉํ•œ ์ƒํ™ฉ
    • ์ž…๋ ฅ-์ถœ๋ ฅ ๊ฐ„ ์ˆ˜ํ•™์  ๊ณต์‹์ด ๋ถ„๋ช…ํ•˜์ง€ ์•Š์„ ๋•Œ
    • ์„ค๋ช…๋ณด๋‹ค๋Š” ์˜ˆ์ธก ์ž์ฒด๊ฐ€ ์ค‘์š”ํ•  ๋•Œ
    • ํ•™์Šต ๋ฐ์ดํ„ฐ๊ฐ€ ์•„์ฃผ ๋งŽ์„ ๋•Œ

 

์ธ๊ณต์‹ ๊ฒฝ๋ง ๋ถ„์„์˜ ์žฅ๋‹จ์ 

 

์žฅ์ 

  • ์žก์Œ์— ๋ฏผ๊ฐํ•˜์ง€ ์•Š์Œ
  • ๋น„์„ ํ˜•์  ๋ฌธ์ œ๋ฅผ ๋ถ„์„ํ•˜๋Š” ๋ฐ ์œ ์šฉ
  • ํŒจํ„ด์ธ์‹, ๋ถ„๋ฅ˜, ์˜ˆ์ธก ๋“ฑ ๋ฌธ์ œ์— ํšจ๊ณผ์ 
  • ์Šค์Šค๋กœ ๊ฐ€์ค‘์น˜๋ฅผ ํ•™์Šตํ•จ

๋‹จ์ 

  • ๋ชจํ˜•์ด ๋ณต์žกํ•  ๊ฒฝ์šฐ ์˜ค๋ž˜ ๊ฑธ๋ฆผ
  • ์ดˆ๊ธฐ ๊ฐ€์ค‘์น˜์— ๋”ฐ๋ผ ์ „์—ญํ•ด๊ฐ€ ์•„๋‹Œ ์ง€์—ญํ•ด๋กœ ์ˆ˜๋ ดํ•  ์ˆ˜ ์žˆ์Œ
  • ์ถ”์ •ํ•œ ๊ฐ€์ค‘์น˜์˜ ์‹ ๋ขฐ๋„ ๋‚ฎ์Œ
  • ๊ฒฐ๊ณผ์— ๋Œ€ํ•œ ํ•ด์„์ด ์–ด๋ ค์›€
  • ์€๋‹‰์ธต์˜ ์ˆ˜์™€ ์€๋‹‰ ๋…ธ๋“œ์˜ ์ˆ˜๋ฅผ ์ •ํ•˜๊ธฐ ์–ด๋ ค์›€

 

์ธ๊ณต์‹ ๊ฒฝ๋ง ์˜ˆ์‹œ

  • ์ž…๋ ฅ ๋‰ด๋Ÿฐ: ์ž…๋ ฅ ๋ณ€์ˆ˜์˜ ๊ฐ’ ํ˜น์€ ์ •ํ˜•ํ™”๋œ ๊ฐ’์„ ๊ฐ€์ง€๊ณ  ์žˆ์Œ
  • ํžˆ๋“ (์€๋‹‰) ๋‰ด๋Ÿฐ: ๋‚ด๋ถ€ ์—ฐ์‚ฐ์ด ๋ฐœ์ƒํ•˜๋Š” ๋‰ด๋Ÿฐ / ๋น„์„ ํ˜„์„ฑ์„ ๋”ํ•จ
  • ์ถœ๋ ฅ ๋‰ด๋Ÿฐ: ์˜ˆ์ธก๊ฐ’์„ ๊ณ„์‚ฐํ•˜๋Š” ๋‰ด๋Ÿฐ
  • RNN, CNN, GAN

 

 

ํ™œ์„ฑํ™” ํ•จ์ˆ˜

์ž…๋ ฅ ์‹ ํ˜ธ์˜ ์ดํ•ฉ์„ ์ถœ๋ ฅ ์‹ ํ˜ธ๋กœ ๋ณ€ํ™˜ํ•˜๋Š” ํ•จ์ˆ˜
์ž…๋ ฅ๋ณ€์ˆ˜์˜ ์†์„ฑ์— ๋”ฐ๋ผ ํ™œ์„ฑํ™” ํ•จ์ˆ˜ ์„ ํƒ X
๋‹ค์Œ ์ธต์œผ๋กœ ์–ด๋–ป๊ฒŒ ์ถœ๋ ฅํ• ์ง€ ๊ฒฐ์ •ํ•จ
๊ฐ ๋‰ด๋Ÿฐ์—์„œ ์—ฐ์‚ฐ๋œ ๊ฐ’์€ ํ™œ์„ฑํ™” ํ•จ์ˆ˜(activation function)๋ฅผ ํ†ต๊ณผํ•จ (ํžˆ๋“ ์œ ๋‹› or ์ถœ๋ ฅ์œ ๋‹›)

ํ™œ์„ฑํ™” ํ•จ์ˆ˜๋Š” ํ•™์Šต ๋Œ€์ƒ์ด ์•„๋‹˜ (ํŒŒ๋ผ๋ฏธํ„ฐ ์—†์Œ)

  • ๊ณ„๋‹จ(step) ํ•จ์ˆ˜
  • ์‹œ๊ทธ๋ชจ์ด๋“œ ํ•จ์ˆ˜ Logistic Function (=sigmoid function)
    $g(x)=\frac{1}{1+exp(-x)}$
    • 0~1 ์‚ฌ์ด์˜ ๊ฐ’ ์ถœ๋ ฅ
    • ์ด์ง„ ๋ถ„๋ฅ˜ ์ถœ๋ ฅ์œ ๋‹›์— ์ฃผ๋กœ ์‚ฌ์šฉ
    • ๋‹จ์ธต์‹ ๊ฒฝ๋ง์—์„œ ํ™œ์„ฑํ™” ํ•จ์ˆ˜๋กœ ์‚ฌ์šฉํ•˜๋ฉด ๋กœ์ง€์Šคํ‹ฑ ํšŒ๊ท€๋ชจํ˜•๊ณผ ์ž‘๋™์›๋ฆฌ๊ฐ€ ์œ ์‚ฌํ•จ
      *๋‹จ์ธต์‹ ๊ฒฝ๋ง: ์ž…๋ ฅ์ธต์ด ์ง์ ‘ ์ถœ๋ ฅ์ธต์— ์—ฐ๊ฒฐ๋จ
    • ํšŒ๊ท€๊ณ„์ˆ˜๊ฐ€ ์Œ์ˆ˜๋ฉด ์—ญ S์ž ๊ทธ๋ž˜ํ”„๊ฐ€ ๋‚˜ํƒ€๋‚จ
  • Hyperbolic Tangent Function (Tanh)
    $g(x)=\frac{exp(x)-exp(-x)}{exp(x)+exp(-x)}$
    • -1~1 ์‚ฌ์ด์˜ ๊ฐ’ ์ถœ๋ ฅ
    • ์ด์ง„ ๋ถ„๋ฅ˜ ์ถœ๋ ฅ์œ ๋‹›์— ์ฃผ๋กœ ์‚ฌ์šฉ
  • Softmax Function
    • ๋‹ค์ง€ ๋ถ„๋ฅ˜์— ์‚ฌ์šฉ
  • ReLU $=max(x,0)$
    • ๋”ฅ๋Ÿฌ๋‹ ๋ชจํ˜•์— ๋งŽ์ด ์‚ฌ์šฉํ•จ

๋‹จ์ผ ๋‰ด๋Ÿฐ์˜ ํ•™์Šต (๋‹จ์ธต ํผ์…‰ํŠธ๋ก )
์ดˆํ‰๋ฉด(Hyperplane)

 

 

์ธ๊ณต์‹ ๊ฒฝ๋ง ํ•™์Šต ์œ ์˜ ์‚ฌํ•ญ

  • ์ž…๋ ฅ ๋ณ€์ˆ˜
    ํŠน์ • ๋ณ€์ˆ˜์˜ ์Šค์ผ€์ผ์ด ์ง€๋‚˜์น˜๊ฒŒ ํฌ๊ฑฐ๋‚˜ ์ž‘์„ ๋•Œ ๋ชจํ˜• ํ•™์Šต์— ํฌ๊ฒŒ ์˜ํ–ฅ์„ ์ค„ ์ˆ˜ ์žˆ์–ด ๋ฐ์ดํ„ฐ ์ „์ฒ˜๋ฆฌ ๊ณผ์ •์ด ํ•„์š”ํ•จ
  • ๊ฐ€์ค‘์น˜ ์ดˆ๊นƒ๊ฐ’
    ์ธ๊ณต์‹ ๊ฒฝ๋ง ํ•™์Šต์— ์‚ฌ์šฉ๋˜๋Š” ์—ญ์ „ํŒŒ ์•Œ๊ณ ๋ฆฌ์ฆ˜์€ ๋ชจํ˜•์˜ ํŒŒ๋ผ๋ฏธํ„ฐ ์ดˆ๊นƒ๊ฐ’ ์˜ํ–ฅ์„ ๋งŽ์ด ๋ฐ›์Œ
    ๋žœ๋คํ•˜๊ฒŒ ์ดˆ๊ธฐํ™”(initialize)ํ•˜๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜ ๋ณ„๋„๋กœ ์ ์šฉ
  • ์€๋‹‰์ธต ์ˆ˜
    ์€๋‹‰์ธต ์ˆ˜๊ฐ€ ๋งŽ์„์ˆ˜๋ก ๋ชจํ˜•์˜ ๋ณต์žก๋„๊ฐ€ ์˜ฌ๋ผ๊ฐ → ๊ณผ์ ํ•ฉ ๋ฐœ์ƒ → ๋„คํŠธ์›Œํฌ์˜ ์ผ๋ฐ˜ํ™” ์–ด๋ ค์›€
    ๋„ˆ๋ฌด ์ ์œผ๋ฉด ๋„คํŠธ์›Œํฌ๊ฐ€ ๋ณต์žกํ•œ ์˜์‚ฌ๊ฒฐ์ • ๊ฒฝ๊ณ„ ์ƒ์„ฑ์ด ์–ด๋ ค์›€
    ์€๋‹‰์ธต์˜ ๋‰ด๋Ÿฐ์˜ ๊ฐœ์ˆ˜์™€ ์€๋‹‰์ธต์˜ ๊ฐœ์ˆ˜๋Š” ์ง์ ‘ ์„ค์ •ํ•ด์•ผ ํ•˜๋ฏ€๋กœ ์‚ฌ๋žŒ์˜ ์ง๊ด€, ๊ฒฝํ—˜์— ์˜์กดํ•จ (์ž๋™X)
  • ํ•™์Šต๋ฅ (learning rate)
    ๋ชจํ˜•์ด ํ•ด(solution)์— ๋„๋‹ฌํ•˜๋Š” ์†๋„ ๋ฐ ์ •๊ตํ•จ์„ ์ปจํŠธ๋กคํ•˜๋Š” ๋งค๊ฐœ๋ณ€์ˆ˜ (์ ์ ˆํžˆ ํฐ ๊ฐ’์—์„œ decay)
  • ๊ณผ๋Œ€ ์ ํ•ฉ ๋ฐฉ์ง€
    • ์กฐ๊ธฐ ์ข…๋ฃŒ(early stop): ๋ชจํ˜•์˜ ๊ฒ€์ฆ ์˜ค์ฐจ๊ฐ€ ๋” ์ด์ƒ ๊ฐ์†Œํ•˜์ง€ ์•Š์œผ๋ฉด ํ•™์Šต ์ค‘๋‹จ
    • ํŒจ๋„ํ‹ฐ ๋ถ€์—ฌ: ๊ฐ€์ค‘์น˜๊ฐ€ ์ง€๋‚˜์น˜๊ฒŒ ์ปค์ง€๋Š” ๊ฒƒ์„ ๋ง‰๊ธฐ ์œ„ํ•œ ํŒจ๋„ํ‹ฐ ๋ถ€์—ฌ

 

๋”ฅ๋Ÿฌ๋‹

  • ์ธ๊ณต์‹ ๊ฒฝ๋ง ๊ตฌ์กฐ์—์„œ ์€๋‹‰์ธต(hidden layer)์„ ๋ณต์ˆ˜๋กœ ์„ค์ •ํ•˜์—ฌ ๋ชจํ˜•์˜ ๋ณต์žก๋„๋ฅผ ๋”ํ•œ ๊ตฌ์กฐ
  • ํ”ผ๋“œ ํฌ์›Œ๋“œ ์‹ ๊ฒฝ๋ง: ์ •๋ณด๊ฐ€ ์ „๋ฐฉ์œผ๋กœ ์ „๋‹ฌ๋˜๋Š” ๊ฒƒ์œผ๋กœ ์ƒ๋ฌผํ•™์  ์‹ ๊ฒฝ๊ณ„์—์„œ ๋‚˜ํƒ€๋‚˜๋Š” ํ˜•ํƒœ๋กœ ๋”ฅ๋Ÿฌ๋‹์˜ ํ•ต์‹ฌ ๊ตฌ์กฐ ๊ฐœ๋…์ž„
  • ๋”ฅ๋Ÿฌ๋‹ ์†Œํ”„ํŠธ์›จ์–ด
    • TensorFlow
    • Caffe
    • Theano
    • Mxnet
    • Keras
    • PyTorch
๋ฐ˜์‘ํ˜•
LIST