분류 전체보기335 [인공지능] Training CNN 📌 교내 '인공지능' 수업을 통해 공부한 내용을 정리한 것입니다. 1️⃣ 복습 ① FC backpropagation 👉 dy(L) 에서 dz(L+1) 이 삽입되는 부분 이해할 것! 💨 dy(L) = (0-0t) * f'(zk) * W = dz(L+1) * W 💨 dz(L+1) = (0-0t) * f'(zk) = dy(L+1) * f'(zk) 💨 최종 끝단 layer dy(L+1) = dC/dy(L+1) = d {1/2*(0-0t)^2} / dy(L+1) = d {1/2*(0-0t)^2} / d0t = (0-0t) 👻 by chain rule activation gradient : dL / dy(L) = local gradient * weight local graidnet : dL / dz(L) weigh.. 2022. 4. 26. [06. 차원축소] PCA, LDA, SVD, NMF 01. 차원축소 👀 개요 매우 많은 피처로 구성된 다차원 데이터 세트의 차원을 축소해 새로운 차원의 데이터 세트를 생성하는 것 PCA, LDA, SVD, NMF 알고리즘 차원이 큰 경우 차원이 작은 경우 sparse 한 구조 👉 예측 신뢰도 하락 시각화가 가능해 직관적으로 데이터를 해석하는 것이 가능해진다. 피처별 상관관계가 높을 수 있음 👉 다중 공선성 문제로 예측 성능 저하 학습에 필요한 처리 능력을 줄일 수 있다. 📌 피처 선택 vs 피처 추출 피처 선택 : 특정 피처에 종속성이 강한 불필요한 피처를 아예 제거하여 데이터의 특징을 잘 나타내는 주요한 피처만 선택하는 방식 피처 추출 : 기존 피처를 저차원의 중요 피처로 압축해서 추출 👉 단순한 압축이 아닌, 피처를 함축적으로 더 잘 설명할 수 있는 .. 2022. 4. 24. [인공지능] CNN 📌 교내 '인공지능' 수업을 통해 공부한 내용을 정리한 것입니다. 1️⃣ CNN ① Architecture 👀 Convolution Neural Network 이미지 인식, 이미지 분류에서 좋은 성능을 보이는 모델이다. CNN 은 전결합 구조가 아니다 👉 시냅스 연결 개수가 적다 👉 weight 개수가 적다 💨 연산량이 적다 FC layer 보다 더 효과적으로 feature extraction 을 진행하고 이미지 데이터에 대해 좋은 성능을 보인다. ② ImageNet competition 👀 ImageNet 데이터셋 명칭으로 14000만개의 이미지 데이터셋이다. 1000개의 사물 종류에 대한 이미지가 담겨져 있다. 이미지 속에 존재하는 각 사물의 이름을 얼마나 잘 맞추는가에 관한 학술대회 ILSVRC 에.. 2022. 4. 23. [인공지능] DNN 📌 교내 '인공지능' 수업을 통해 공부한 내용을 정리한 것입니다. 요약 ① Universal approximation theorem ② Activation function ③ DNN : why deep? ④ Random Initialization - tanh, ReLU : 가중치가 0으로 고정 - sigmoid : 가중치가 suboptimal matrix 형태로 업데이트 ⑤ Application example : Face recognition 1️⃣ Universal approximation thm , activation function ① Universal approximation theorems 👀 충분한 가중치가 적용되었을 때, MLP 로 어떠한 함수도 근사시킬 수 있다. hidden layer 에.. 2022. 4. 23. [cs224n] 7강 내용 정리 Vanishing Gradients and Fancy RNNs 💡 주제 : Vanishing Gradients and Fancy RNNs 📌 핵심 Task : 문장이 주어질 때 지금까지 나온 단어들 이후에 나올 단어를 예측 Sequential data : 순서가 의미 있으며 순서가 달라질 경우 의미가 손상되는 데이터로 순환신경망을 사용하는 이유는 입력을 순차데이터로 받거나, 출력을 순차 데이터로 내기 위해서다. RNN : 다음에 올 단어를 예측하는 과제를 효과적으로 수행하기 위해 도입한 NN 의 일종 👉 문제점 : 기울기소실/폭증, 장기의존성 LSTM : RNN 의 장기의존성의 문제점을 보완해 등장한 모델 👉 cell state , 3 개의 gate 개념을 도입 1️⃣ Language model, RNN.. 2022. 4. 21. [인공지능] MLP 📌 교내 '인공지능' 수업을 통해 공부한 내용을 정리한 것입니다. 요약 ① multiple layer 가 필요한 이유 - XOR 문제 - feature extraction and classification ② Multi-layer perceptron - gradient descent - backpropagation algorithm 1️⃣ MLP ① MLP란 👀 Perceptron vs Multi layer Perceptron Perceptron : 뉴런이 하나만 존재하는 경우 MLP (multi-layer perceptron) : 뉴런(퍼셉트론)이 여러개가 존재하며 층을 이룬다. layer : 뉴런과 뉴런 사이의 시냅스 층을 지칭함 🤔 뉴런이 열거된 부분을 layer 라고 칭하며 hidden layer.. 2022. 4. 21. [인공지능] Basic Neural Network 📌 교내 '인공지능' 수업을 통해 공부한 내용을 정리한 것입니다. 📐 목차 ① 파블로프의 개 예제 perceptron 모델링 ② Training a Perceptron - Gradient desecent - example ③ batch computing, epoch, hyperparameter 1️⃣ Neuron 으로 '파블로프의 개' 모델링 해보기 ① Example 👀 용어 정리 Activation = Feature Synaptic weight = filter = kernel : 시냅스 강도 Thresholding = Activation Function 👀 Training 가중치를 조절하여 학습을 진행한다. 2️⃣ Training a Perceptron ① Neuron 의 수학 공식 ② Gradient.. 2022. 4. 21. [인공지능] Introduction to AI/Deep learning 📌 교내 '인공지능' 수업을 통해 공부한 내용을 정리한 것입니다. 1️⃣ Introduction to AI ① AI Definition 👀 Rationality 목표를 최대한으로 당설할 수 있도록 합리적인 행동 (act rationally) 을 하는 것 = AI 연산을 통해 합리적인 행동을 한다는 측면에서 AI 는 컴퓨터 과학의 뿌리다. 👀 약인공지능 vs 강인공지능 Narrow AI : 체스두기, 엘레베이터 조절하기 등과 같은 특정한 (specific) 문제를 해결하는 인공지능 Strong AI : 인간의 인지 능력에 대한 범위까지 능가하는 인공지능 (act & thinking) ② History of AI 👀 역사 50/60년대 : Neural network 의 등장 (인공뉴런의 개념) 💨 모호성/복.. 2022. 4. 21. [data report] 퍼널분석 📌 하루에 30분씩 '데이터' 주제에 관한 글을 읽고 정리합니다. 스스로 공부한 것 / 알게된 것을 정리하기 위한 용도의 글이며 내용에 대한 출처는 아래에 참고자료로 주석을 달아놓았습니다 👻 👀 오늘의 주제 : 퍼널분석 1️⃣ 퍼널분석이란 고객들이 유저 경험 루트를 따라 잘 도착하고 있는지 확인하기 위해 최초 유입부터 최종 목적지까지 단계를 나누어 살펴보는 분석기법이다. 최종단계까지 얼마나 많은 유저가 도착하는지, 어디서 많이 이탈하는지 확인할 수 있다. 각 단계를 통과할 때마다 이탈하는 유저가 많을수록 아래의 그림처럼 깔대기(funnel) 모양으로 하단이 좁아진다는 뜻에서 퍼널분석이라 한다. 각 단계를 넘어가는 것을 '전환' 이라 부르고 비율은 '전환율' 에 해당한다. 퍼널의 각 단계는 분석 목적이나 .. 2022. 4. 21. 웹 프로그래밍[7] - CSS : flex, justify-content, align-content, order, flex-grow 📌 교내 '디지털 콘텐츠 웹 프로그래밍' 수업 내용과 'Do it 인터랙티브 웹 페이지 만들기' 유튜브 강의를 통해 공부한 내용을 정리하였습니다. Flex 🔶 Flex vs Float 국외에서는 float 속성의 레이아웃 제작방식을 비표준 기술로 인식 flex 는 표준 레이아웃 제작방식 국내에서는 HTML5 이전 방식으로 제작을 많이 했디 때문에 유지보수 문제로 float 속성을 사용하여 레이아웃 작업을 한 경우가 더 많다. 둘다 알아둬라! 🔶 Flex 적용하기 속성명 속성값 설명 dispaly flex 자신은 블록 속성을 유지하며 자식 요소에 flex 환경 설정 inline-flex 자신을 인라인 속성으로 변경하며 자식 요소에 flex 환경설정 flex-direction row flex 의 기본축을 가.. 2022. 4. 16. 이전 1 ··· 27 28 29 30 31 32 33 34 다음 728x90