1๏ธโฃ AI•DS/๐ Deep learning25 [์ธ๊ณต์ง๋ฅ] CNN ๐ ๊ต๋ด '์ธ๊ณต์ง๋ฅ' ์์ ์ ํตํด ๊ณต๋ถํ ๋ด์ฉ์ ์ ๋ฆฌํ ๊ฒ์ ๋๋ค. 1๏ธโฃ CNN โ Architecture ๐ Convolution Neural Network ์ด๋ฏธ์ง ์ธ์, ์ด๋ฏธ์ง ๋ถ๋ฅ์์ ์ข์ ์ฑ๋ฅ์ ๋ณด์ด๋ ๋ชจ๋ธ์ด๋ค. CNN ์ ์ ๊ฒฐํฉ ๊ตฌ์กฐ๊ฐ ์๋๋ค ๐ ์๋ ์ค ์ฐ๊ฒฐ ๊ฐ์๊ฐ ์ ๋ค ๐ weight ๊ฐ์๊ฐ ์ ๋ค ๐จ ์ฐ์ฐ๋์ด ์ ๋ค FC layer ๋ณด๋ค ๋ ํจ๊ณผ์ ์ผ๋ก feature extraction ์ ์งํํ๊ณ ์ด๋ฏธ์ง ๋ฐ์ดํฐ์ ๋ํด ์ข์ ์ฑ๋ฅ์ ๋ณด์ธ๋ค. โก ImageNet competition ๐ ImageNet ๋ฐ์ดํฐ์ ๋ช ์นญ์ผ๋ก 14000๋ง๊ฐ์ ์ด๋ฏธ์ง ๋ฐ์ดํฐ์ ์ด๋ค. 1000๊ฐ์ ์ฌ๋ฌผ ์ข ๋ฅ์ ๋ํ ์ด๋ฏธ์ง๊ฐ ๋ด๊ฒจ์ ธ ์๋ค. ์ด๋ฏธ์ง ์์ ์กด์ฌํ๋ ๊ฐ ์ฌ๋ฌผ์ ์ด๋ฆ์ ์ผ๋ง๋ ์ ๋ง์ถ๋๊ฐ์ ๊ดํ ํ์ ๋ํ ILSVRC ์.. 2022. 4. 23. [์ธ๊ณต์ง๋ฅ] DNN ๐ ๊ต๋ด '์ธ๊ณต์ง๋ฅ' ์์ ์ ํตํด ๊ณต๋ถํ ๋ด์ฉ์ ์ ๋ฆฌํ ๊ฒ์ ๋๋ค. ์์ฝ โ Universal approximation theorem โก Activation function โข DNN : why deep? โฃ Random Initialization - tanh, ReLU : ๊ฐ์ค์น๊ฐ 0์ผ๋ก ๊ณ ์ - sigmoid : ๊ฐ์ค์น๊ฐ suboptimal matrix ํํ๋ก ์ ๋ฐ์ดํธ โค Application example : Face recognition 1๏ธโฃ Universal approximation thm , activation function โ Universal approximation theorems ๐ ์ถฉ๋ถํ ๊ฐ์ค์น๊ฐ ์ ์ฉ๋์์ ๋, MLP ๋ก ์ด๋ ํ ํจ์๋ ๊ทผ์ฌ์ํฌ ์ ์๋ค. hidden layer ์.. 2022. 4. 23. [์ธ๊ณต์ง๋ฅ] MLP ๐ ๊ต๋ด '์ธ๊ณต์ง๋ฅ' ์์ ์ ํตํด ๊ณต๋ถํ ๋ด์ฉ์ ์ ๋ฆฌํ ๊ฒ์ ๋๋ค. ์์ฝ โ multiple layer ๊ฐ ํ์ํ ์ด์ - XOR ๋ฌธ์ - feature extraction and classification โก Multi-layer perceptron - gradient descent - backpropagation algorithm 1๏ธโฃ MLP โ MLP๋ ๐ Perceptron vs Multi layer Perceptron Perceptron : ๋ด๋ฐ์ด ํ๋๋ง ์กด์ฌํ๋ ๊ฒฝ์ฐ MLP (multi-layer perceptron) : ๋ด๋ฐ(ํผ์ ํธ๋ก )์ด ์ฌ๋ฌ๊ฐ๊ฐ ์กด์ฌํ๋ฉฐ ์ธต์ ์ด๋ฃฌ๋ค. layer : ๋ด๋ฐ๊ณผ ๋ด๋ฐ ์ฌ์ด์ ์๋ ์ค ์ธต์ ์ง์นญํจ ๐ค ๋ด๋ฐ์ด ์ด๊ฑฐ๋ ๋ถ๋ถ์ layer ๋ผ๊ณ ์นญํ๋ฉฐ hidden layer.. 2022. 4. 21. [์ธ๊ณต์ง๋ฅ] Basic Neural Network ๐ ๊ต๋ด '์ธ๊ณต์ง๋ฅ' ์์ ์ ํตํด ๊ณต๋ถํ ๋ด์ฉ์ ์ ๋ฆฌํ ๊ฒ์ ๋๋ค. ๐ ๋ชฉ์ฐจ โ ํ๋ธ๋กํ์ ๊ฐ ์์ perceptron ๋ชจ๋ธ๋ง โก Training a Perceptron - Gradient desecent - example โข batch computing, epoch, hyperparameter 1๏ธโฃ Neuron ์ผ๋ก 'ํ๋ธ๋กํ์ ๊ฐ' ๋ชจ๋ธ๋ง ํด๋ณด๊ธฐ โ Example ๐ ์ฉ์ด ์ ๋ฆฌ Activation = Feature Synaptic weight = filter = kernel : ์๋ ์ค ๊ฐ๋ Thresholding = Activation Function ๐ Training ๊ฐ์ค์น๋ฅผ ์กฐ์ ํ์ฌ ํ์ต์ ์งํํ๋ค. 2๏ธโฃ Training a Perceptron โ Neuron ์ ์ํ ๊ณต์ โก Gradient.. 2022. 4. 21. [์ธ๊ณต์ง๋ฅ] Introduction to AI/Deep learning ๐ ๊ต๋ด '์ธ๊ณต์ง๋ฅ' ์์ ์ ํตํด ๊ณต๋ถํ ๋ด์ฉ์ ์ ๋ฆฌํ ๊ฒ์ ๋๋ค. 1๏ธโฃ Introduction to AI โ AI Definition ๐ Rationality ๋ชฉํ๋ฅผ ์ต๋ํ์ผ๋ก ๋น์คํ ์ ์๋๋ก ํฉ๋ฆฌ์ ์ธ ํ๋ (act rationally) ์ ํ๋ ๊ฒ = AI ์ฐ์ฐ์ ํตํด ํฉ๋ฆฌ์ ์ธ ํ๋์ ํ๋ค๋ ์ธก๋ฉด์์ AI ๋ ์ปดํจํฐ ๊ณผํ์ ๋ฟ๋ฆฌ๋ค. ๐ ์ฝ์ธ๊ณต์ง๋ฅ vs ๊ฐ์ธ๊ณต์ง๋ฅ Narrow AI : ์ฒด์ค๋๊ธฐ, ์๋ ๋ฒ ์ดํฐ ์กฐ์ ํ๊ธฐ ๋ฑ๊ณผ ๊ฐ์ ํน์ ํ (specific) ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๋ ์ธ๊ณต์ง๋ฅ Strong AI : ์ธ๊ฐ์ ์ธ์ง ๋ฅ๋ ฅ์ ๋ํ ๋ฒ์๊น์ง ๋ฅ๊ฐํ๋ ์ธ๊ณต์ง๋ฅ (act & thinking) โก History of AI ๐ ์ญ์ฌ 50/60๋ ๋ : Neural network ์ ๋ฑ์ฅ (์ธ๊ณต๋ด๋ฐ์ ๊ฐ๋ ) ๐จ ๋ชจํธ์ฑ/๋ณต.. 2022. 4. 21. ์ด์ 1 2 3 ๋ค์ 728x90