π κ΅λ΄ 'μΈκ³΅μ§λ₯' μμ μ ν΅ν΄ 곡λΆν λ΄μ©μ μ 리ν κ²μ λλ€.
π λͺ©μ°¨
β νλΈλ‘νμ κ° μμ perceptron λͺ¨λΈλ§
β‘ Training a Perceptron
- Gradient desecent
- example
β’ batch computing, epoch, hyperparameter
1οΈβ£ Neuron μΌλ‘ 'νλΈλ‘νμ κ°' λͺ¨λΈλ§ ν΄λ³΄κΈ°
β Example
π μ©μ΄ μ 리
- Activation = Feature
- Synaptic weight = filter = kernel : μλ μ€ κ°λ
- Thresholding = Activation Function
π Training
- κ°μ€μΉλ₯Ό μ‘°μ νμ¬ νμ΅μ μ§ννλ€.
2οΈβ£ Training a Perceptron
β Neuron μ μν 곡μ
β‘ Gradient Descent
- κ°μ€μΉλ₯Ό νμ΅νλ λ°©λ²
- λΉμ©ν¨μλ₯Ό μ΅μννλ μ΅μ ν μκ³ λ¦¬μ¦μΌλ‘ λ§μ΄ μ¬μ©λ€λ€.
- λΉμ©ν¨μμ μ΅μκ°μ μ°ΎκΈ°μν΄ κ°μ₯ κ²½μ¬κ° κΈν λ°©ν₯μΌλ‘ μμ§μΈλ€ π¨ Negative descent
- Learning rate νμ΅λ₯ : μΌλ§λ 빨리 μμ§μΌκ²μΈμ§ μ νλ νλΌλ―Έν°λ‘, νμ΅λ₯ μ΄ λμΌλ©΄ λ λ§μ΄ μμ§μΈλ€.
- Gradient operator μμ μμ μμ 2x
β’ Training Perceptron
- νΌμ νΈλ‘ μ νλ ¨νλ κ²μ κ°μ€μΉ μ΅μ ν λ¬Έμ λ₯Ό νΈλ κ²κ³Ό κ°λ€ π error λ₯Ό μ΅μννλ κ°μ€μΉ μ°ΎκΈ°
- error κ° μ΅μν λκ²λ κ°μ€μΉλ₯Ό μ λ°μ΄νΈνλ€.
πβοΈ νλ ¨κ³Όμ
1. 0μ΄ μλ λ§€μ° μμ κ°μΌλ‘ κ°μ€μΉ μ΄κΈ°κ°μ μ€μ νλ€.
2. For each training sample x(k)
a. Output κ°μ κ³μ°νλ€.
b. gradient λ₯Ό κ³μ°νλ€.
c. κ°μ€μΉλ₯Ό μ λ°μ΄νΈνλ€.
* x(k) λ μ¬λ¬κ°μ feature λ‘ κ΅¬μ±λ νλμ λ°μ΄ν° νμ μλ―Ένλ€.
* EX. x(0) = ( x0(0), x1(0) )
π νμ΅ λͺ©μ : input from bell = 1 μΌλ output = 1 μ΄ λλλ‘, μ¦ λ²¨λ§ μΈλ €λ μΉ¨μ ν리λλ‘ μ λ
* 2κ°μ feature λ‘ κ΅¬μ±λ 3κ°μ sample λ‘ νμ΅μ μ§ν
β£ Matrix ννμ
- input κ³Ό weight λ₯Ό νλ ¬μμΌλ‘ νννμ¬ μ°μ° π xºw 벑ν°μ λ΄μ
3οΈβ£ batch computing, epoch, hyperparameters
β Batch computing
π νλ ¬ μ°μ°μ λμ ν μ΄μ = batch computing κ°λ μ λμ νκΈ° μν¨!
π‘ μ§μ batch μ°μ°ν΄λ³΄κΈ° : error μμ Σ(o-z) , o = Σxw μ°μ΄μ sigma κ³μ° μ£Όμ!
π batch computing μ΄λ?
- μ 체 λ°μ΄ν°μ μ μ¬μ©νμ¬ gradient μ°μ°μ νλ κ²μ΄ νμνλ€. κ·Έλ¬ν μ μμ νλ ¬λ‘ κ³μ°νλ κ²μ 벑ν°λ μ€μΉΌλΌλ‘ κ³μ°νλ κ²λ³΄λ€ ν¨μ¬ μλκ° λΉ λ₯΄λ€.
- κ·Έλ¬λ μ€μ λ‘λ μ 체 λ°μ΄ν°μ μ λν΄ gradient λ₯Ό κ³μ°νλ κ²μ λΆκ°λ₯νλ€. λ§μ½ 100λ§κ°μ λ°μ΄ν°κ° μλ€κ³ νλ€λ©΄ batch λ₯Ό νλ² κ³μ°νλλ°μλ κ΅μ₯ν μ€λ μκ°μ΄ 걸릴 κ²μ΄λ€.
- λ°λΌμ νλ ¨ λ°μ΄ν°μ μ mini-batch (κ·Έλ₯ batch λΌκ³ λΆλ¦) λ‘ λλμ΄ training μ μ§ννλ€.
- μ 체 λ°μ΄ν°μ μ νλ² μ νλ ¨ν κ²μ 1 epoch λΌκ³ λΆλ₯Έλ€.
β‘ Hyperparameter
π νμ΄νΌ νλΌλ―Έν° νλ
- νμ΅λ₯ , λ―Έλλ°°μΉν¬κΈ°, μν¬ν¬ μ π μ°λ¦¬κ° μ§μ κ°μ μ€μ ν΄μ£Όμ΄μΌ νλ νλΌλ―Έν°
π νμ΄νΌ νλΌλ―Έν°κ° νμ΅μ λ―ΈμΉλ μν₯
- νλ ¨ μλμ μ νλμ μ§μ μ μΌλ‘ μν₯μ λ―ΈμΉκΈ° λλ¬Έμ μ μ ν κ°μ μ€μ ν΄μ£Όλ κ²μ΄ μ€μνλ€.
'1οΈβ£ AIβ’DS > π Deep learning' μΉ΄ν κ³ λ¦¬μ λ€λ₯Έ κΈ
[μΈκ³΅μ§λ₯] Training CNN (0) | 2022.04.26 |
---|---|
[μΈκ³΅μ§λ₯] CNN (0) | 2022.04.23 |
[μΈκ³΅μ§λ₯] DNN (0) | 2022.04.23 |
[μΈκ³΅μ§λ₯] MLP (0) | 2022.04.21 |
[μΈκ³΅μ§λ₯] Introduction to AI/Deep learning (0) | 2022.04.21 |
λκΈ