λ³Έλ¬Έ λ°”λ‘œκ°€κΈ°
1️⃣ AI•DS/πŸ“’ Deep learning

[인곡지λŠ₯] Introduction to AI/Deep learning

by isdawell 2022. 4. 21.
728x90

πŸ“Œ ꡐ내 '인곡지λŠ₯' μˆ˜μ—…μ„ 톡해 κ³΅λΆ€ν•œ λ‚΄μš©μ„ μ •λ¦¬ν•œ κ²ƒμž…λ‹ˆλ‹€. 

 

 

1️⃣ Introduction to AI 


 

β‘  AI Definition

 

πŸ‘€ Rationality 

 

  • λͺ©ν‘œλ₯Ό μ΅œλŒ€ν•œμœΌλ‘œ λ‹Ήμ„€ν•  수 μžˆλ„λ‘ 합리적인 행동 (act rationally) 을 ν•˜λŠ” 것 = AI 
  • 연산을 톡해 합리적인 행동을 ν•œλ‹€λŠ” μΈ‘λ©΄μ—μ„œ AI λŠ” 컴퓨터 κ³Όν•™μ˜ λΏŒλ¦¬λ‹€. 

 

πŸ‘€ 약인곡지λŠ₯ vs 강인곡지λŠ₯ 

 

  • Narrow AI : μ²΄μŠ€λ‘κΈ°, μ—˜λ ˆλ² μ΄ν„° μ‘°μ ˆν•˜κΈ° λ“±κ³Ό 같은 νŠΉμ •ν•œ (specific) 문제λ₯Ό ν•΄κ²°ν•˜λŠ” 인곡지λŠ₯ 
  • Strong AI : μΈκ°„μ˜ 인지 λŠ₯λ ₯에 λŒ€ν•œ λ²”μœ„κΉŒμ§€ λŠ₯κ°€ν•˜λŠ” 인곡지λŠ₯ (act & thinking) 

 

 

β‘‘ History of AI 

 

πŸ‘€ 역사 

 

  • 50/60λ…„λŒ€ : Neural network 의 λ“±μž₯ (μΈκ³΅λ‰΄λŸ°μ˜ κ°œλ…) πŸ’¨ λͺ¨ν˜Έμ„±/λ³΅μž‘μ„±/ν‘œν˜„μ˜ ν•œκ³„λ‘œ 암흑기에 접어듦
  • 70/80λ…„λŒ€ : expert system 의 λ“±μž₯ 
  • 1998λ…„ : CNN의 탄생 
  • 2012λ…„ : 이미지 λΆ„λ₯˜ λ¬Έμ œμ— CNN의 ν™œμš© _ AlexNet 의 λ“±μž₯ 

 

πŸ‘€ ν˜„μž¬ AIλŠ”

 

  • μ—¬λŸ¬ ν•˜μœ„λΆ„μ•Όλ‘œ λ‚˜λ‰˜μ–΄μ§€κ³ , λ‹€μ–‘ν•œ λΆ„μ•Όμ—μ„œ μ‘μš©μ΄ λ“±μž₯함 
  • AI κ°€ μ–΄λ €μš΄ μ΄μœ λŠ”, μ£Όλ³€ ν™˜κ²½μœΌλ‘œλΆ€ν„° μ–»μ–΄μ§€λŠ” μ •λ³΄μ˜ λΆˆν™•μ‹€μ„± λ•Œλ¬Έμ΄λ‹€. νŠΉμ • 상황에 λŒ€ν•œ 지식 μŠ΅λ“μ€ μ‰¬μšΈ 수 μžˆμœΌλ‚˜, 일반적인 상황에 λŒ€ν•΄μ„œ μœ μ—°ν•˜κ²Œ λ™μž‘ν•˜λŠ” AI의 κ°œλ°œμ€ μ–΄λ ΅λ‹€. 

 

 

β‘’ Subareas of AI 

 

Perception : vision, speech recognition
ML, DL 
Robotics 
NLP
Reasoning and decision making : Knowledge representation, Reasoning (logical, probabilistic) , Decision making (search, planning, decision theory) 

 

πŸ‘€ Representation

  • 데이터λ₯Ό μ–΄λ–»κ²Œ ν‘œν˜„ν•˜κ³  문제λ₯Ό μ–΄λ–»κ²Œ μ •μ˜ν•˜λŠ”κ°€ 

 

πŸ‘€ Thinking 

  • 주어진 정보λ₯Ό ν™œμš©ν•˜μ—¬ λͺ©μ μ„ μ΅œλŒ€ν•œ 달성할 수 μžˆλŠ” 행동을 ν•˜λŠ” 것 

 

πŸ‘€ Reasoning

  • logical : 합리적인(논리적인) μΆ”λ‘  
  • Probabilistic : 각 κ΄€μΈ‘μΉ˜μ— λŒ€ν•΄ μ μ ˆν•œ κ°€μ€‘μΉ˜λ₯Ό λΆ€μ—¬ν•˜μ—¬ μΆ”λ‘  

 

πŸ‘€ Decision making 

 

  • Search : μ •ν™•νžˆ μ„œμˆ λœ 문제λ₯Ό ν•΄κ²°ν•˜λŠ”λ° μ‚¬μš©λ˜λŠ” μ•Œκ³ λ¦¬μ¦˜μœΌλ‘œ state λ₯Ό single entity 둜 ν‘œν˜„ν•œλ‹€.
    • Find optimal sequence of states
    • ex. μžλ™ 진곡 μ²­μ†ŒκΈ° 

 

  • Planning : μ²˜μŒμƒνƒœμ—μ„œ λͺ©ν‘œμƒνƒœκΉŒμ§€μ˜ 일련의 행동을 ν•˜λŠ” μ•Œκ³ λ¦¬μ¦˜μœΌλ‘œ state λ₯Ό κ΅¬μ‘°ν™”λœ ν‘œν˜„μ‹ structured representations 으둜 μ„œμˆ ν•œλ‹€.
    • sequence of actions : μ΄ˆκΈ°μƒνƒœμ—μ„œ μ΅œμ’… μƒνƒœκΉŒμ§€ 
    • Planning can be solved by a search algorithm  
    • ex. μ•ŒνŒŒκ³  : λͺ¬ν…ŒμΉ΄λ₯Όλ‘œ tree search 기법을 μ‚¬μš© with deep learning 

 

πŸ‘€ Decision Theory

  • 결정이둠은 stochastic (λ‹€μŒ state κ°€ μ •μ˜λ˜μ–΄μžˆμ§€ μ•Šμ€ 경우) 와 partially observable ν•œ ν™˜κ²½μ— μ‚¬μš©λœλ‹€. 

 

πŸ‘€ Learning

  • μ£Όλ³€ 상황에 λŒ€ν•΄ ν•™μŠ΅ν•˜μ—¬ 적응 

 

πŸ‘€ Output 

  • maximize the goal 

 

 


 

 

2️⃣ AI λ₯Ό ν•™μŠ΅ν•˜λŠ”λ° ν•„μš”ν•œ μˆ˜ν•™ 배경지식 


 

 

β‘  Linear Algebra ⭐

 

Vector - Vector Product
Matrix - Vector Product
Matrix - Matrix Product
Transpose
Norm
Gradient 

 

 

πŸ‘€ Norm : λ²‘ν„°μ˜ 길이λ₯Ό ν‘œν˜„ν•˜λŠ” μ§€ν‘œ ||x|| 둜 l1, l2 norm 이 λŒ€ν‘œμ μΈ ν‘œν˜„λ°©μ‹μ΄λ‹€. 

 

 

 

 

 

πŸ‘€ Gradient : input 으둜 ν–‰λ ¬ A λ₯Ό λ„£μœΌλ©΄ output 으둜 μ‹€μˆ˜κ°’μ„ λ°˜ν™˜ν•˜λŠ” ν•¨μˆ˜λ‘œ, λ―ΈλΆ„μ˜ 행렬버전이라고 μ΄ν•΄ν•˜λ©΄ 쉽닀. ν–‰λ ¬ A에 λŒ€ν•΄ νŽΈλ―ΈλΆ„μ„ μˆ˜ν–‰ν•œ 결과이닀. 

 

 

 

 

 

 

 

 

 

β‘‘ Probabilistic Theory 

 

쑰건뢀확λ₯ 
Random Variable
Expectation
Variance
Covariance

 

 

* 일반적으둜 '평균'κ³Ό 'κΈ°λŒ“κ°’'은 같은 값을 κ°€μ§‘λ‹ˆλ‹€. κ·ΈλŸ¬λ‚˜, '평균'은 "μ‘°μ‚¬λœ 값듀에 λŒ€ν•΄μ„œ ν‰κ· μ΄ μ–Όλ§ˆμΈκ°€"처럼, ν™•λ₯ μ μΈ κ°œλ…μ΄ 없을 λ•Œ 쓰이고, 'κΈ°λŒ“κ°’'은 각 사건듀이 일어날 ν™•λ₯ λ“€μ„ 가지고 μžˆλŠ” 경우, κ·Έ κΈ°λŒ€λ˜λŠ” 값을 ν‘œν˜„ν•  λ•Œ μ“°μž…λ‹ˆλ‹€.

 


 

 

3️⃣ Introduction to Deep Learining


 

 

 

β‘  'Learning' 의 의미 

 

 

πŸ‘€ νŒŒλΈ”λ‘œν”„μ˜ 개 μ‹€ν—˜ 

 

  • 개λ₯Ό μ’…μ†Œλ¦¬λ§Œ 듣고도 침을 λΆ„λΉ„ν•˜κ²Œ ν•™μŠ΅
  • μ’…μ†Œλ¦¬ + 먹이 ν•™μŠ΅μœΌλ‘œ, λ²¨μ†Œλ¦¬ 인식 λ‰΄λŸ°λ§Œ ν™œμ„±ν™” λ˜λ”λΌλ„ μΉ¨ λΆ„λΉ„ λ‰΄λŸ° λ˜ν•œ ν™œμ„±ν™”λœλ‹€. 

 

πŸ‘€ 신경망을 ν•™μŠ΅ν•œλ‹€λŠ” 것 

 

  • μ‹œλƒ…μŠ€ : λ‰΄λŸ°λ“€λΌλ¦¬μ˜ μ—°κ²° 
  • μ‹œλƒ…μŠ€μ˜ 강도λ₯Ό μ‘°μ ˆν•˜μ—¬ μ›ν•˜λŠ” 좜λ ₯을 μ–»κ²Œ λ§Œλ“ λ‹€λŠ” 것 
  • Deep (측이 많음) + Learning (μ‹œλƒ…μŠ€ 강도λ₯Ό μ‘°μ ˆν•˜λ©° ν•™μŠ΅)

 

심측 μ‹ κ²½λ§μ˜ μ‹œλƒ…μŠ€ 강도λ₯Ό μ‘°μ ˆν•΄ 얼꡴인식 κΈ°λŠ₯을 μˆ˜ν–‰ν•˜λ„λ‘ ν•™μŠ΅

 

 

 

β‘‘ Learning method 

 

1) Supervised learning (prediction) πŸ‘‰ λ”₯λŸ¬λ‹μ˜ μ£Όμš” ν•™μŠ΅ 방식 

  • input-output pairs : labels 

 

Output κ³Ό Ground Truth 둜 λ„μΆœν•œ error λ₯Ό λ°”νƒ•μœΌλ‘œ ν•™μŠ΅μ„ feedback κ°œμ„ 

 

 

2) Unsupervised learning (understanding) 

  • learn patterns from unlabeled data 

 

3) Reinforcement learning 

  • 일련의 행동을 톡해 보상을 μ΅œλŒ€λ‘œ ν•˜λŠ” λ°©ν–₯으둜 ν•™μŠ΅ 

 

 

β‘’ AI Approaches 

 

πŸ‘€ Rule based system 

 

인간이 직접 μ•Œκ³ λ¦¬μ¦˜μ„ λ””μžμΈν•˜λŠ” 전톡적인 방식 

 

어쩃든 rule based system 도 AI 범주에 속함

 

 

πŸ‘€ Classical machine learning

 

인간이 μ„€κ³„ν•œ μ•Œκ³ λ¦¬μ¦˜μœΌλ‘œ μž…λ ₯μ—μ„œ feature (νŠΉμ§•)을 μΆ”μΆœν•˜κ³ , νŠΉμ§•μ˜ 뢄포λ₯Ό 기계가 ν•™μŠ΅ν•˜μ—¬ κ²°κ³Όλ₯Ό νŒλ‹¨ν•œλ‹€.

 

 

 

Feature  μ˜ˆμ‹œ 

 

  • Computer vision : Edges λͺ¨μ„œλ¦¬ , vertices 꼭짓점, objects 사물 , texture 질감 λ“± 
  • Character recognition : # of white pixels, # of holes 0의 개수, strokes 획의 개수 λ“± 
  • Speech recognition : Length of sounds μŒμ„±μ˜ 길이, similarities in patterns 

 

 

 

πŸ‘€ Deep learning

 

νŠΉμ§• μΆ”μΆœλΆ€ν„° λΆ„ν¬μ˜ νŒŒμ•…κΉŒμ§€ λͺ¨λ‘ 기계가 ν•™μŠ΅ν•œλ‹€. 
  • end to end ν•™μŠ΅ 

 

 

 

  • Deep : λ ˆμ΄μ–΄κ°€ λ§Žμ€ 것 
  • λ‹¨μˆœν•œ low level feature μΆ”μΆœλΆ€ν„° 좔상화 단계가 높은 high-level feature 듀을 μΆ”μΆœν•΄λ‚Έλ‹€. μΆ”μƒν™”λœ νŠΉμ§•λ“€λ‘œ 무언가λ₯Ό νŒŒμ•…ν•˜κΈ°κ°€ 더 쉽닀. 

 

λ°μ΄ν„°μ˜ μ–‘κ³Ό 정확도 μ‚¬μ΄μ˜ 관계 

 

 

  • NN ν•™μŠ΅ : 데이터가 λ§Žμ„μˆ˜λ‘, 측의 κ°œμˆ˜κ°€ λ§Žμ„μˆ˜λ‘ 정확도가 μ¦κ°€ν•œλ‹€. 
  • κΈ°κ³„ν•™μŠ΅ : 일정 μ΄μƒμ˜ 데이터 양에 λŒ€ν•΄μ„œλŠ” ν•™μŠ΅μ—μ„œμ˜ μ„±λŠ₯ν–₯상이 λ³„λ‘œ μ—†λ‹€. 
  • Rule-based : λ°μ΄ν„°μ˜ μ–‘κ³Ό 상관없닀. 

 

 

λ”₯λŸ¬λ‹ λͺ¨λΈ μ’…λ₯˜ 

 

  • μ‹œλƒ…μŠ€κ°€ μ–΄λ–»κ²Œ μ—°κ²°λ˜μ–΄ μžˆλŠλƒμ— 따라 ꡬ뢄 

 

 

 

 

728x90

'1️⃣ AIβ€’DS > πŸ“’ Deep learning' μΉ΄ν…Œκ³ λ¦¬μ˜ λ‹€λ₯Έ κΈ€

[인곡지λŠ₯] Training CNN  (0) 2022.04.26
[인곡지λŠ₯] CNN  (0) 2022.04.23
[인곡지λŠ₯] DNN  (0) 2022.04.23
[인곡지λŠ₯] MLP  (0) 2022.04.21
[인곡지λŠ₯] Basic Neural Network  (0) 2022.04.21

λŒ“κΈ€