본문 바로가기

분류 전체보기328

[자료구조] 필수 파이썬 문법 - 조건문, 반복문, 함수, 입출력, 라이브러리 1️⃣ 조건문 | if ~ elif ~ else 문 🐾 논리 연산자 • X and Y : X 와 Y 가 모두 참일때 참 • X or Y : X 와 Y 중 하나만 참이어도 참 • not X : X 가 거짓일 때 참이다. 🐾 기타 연산자 • 리스트, 튜플, 문자열, 사전과 같은 자료형에 값이 존재하는지 확인하는 연산 : in, not in • X in 리스트 : 리스트 안에 X가 들어있을 때 참 • X not in 문자열 : 문자열 안에 X 가 들어가 있지 않을 때 참 • pass : 조건문의 값이 참이라고 해도 아무것도 처리하고 싶지 않을 때 사용 • 조건부 표현식 : if ~ else 문을 한줄에 작성 score = 85 result = "성공" if score>=80 else "실패" print(res.. 2022. 9. 2.
[자료구조] 필수 파이썬 문법 - 자료형 * 알고있는 내용은 필기 패스했음 1️⃣ 수 자료형 | 코딩 테스트에서 대부분 정수형을 다루는 문제가 주로 출제된다. 🐾 정수형 : 양의 정수, 음의 정수, 0 🐾 실수형 : 소수점 아래를 포함하는 수 자료형으로 소수부가 0이면 0을 생략해 작성할 수 있다. a = 5. print(a) # 5.0 b = -.7 print(b) # -0.7 🐾 지수표현방식 : e 나 E 를 이용한 지수표현 방식을 이용할 수 있다. EX. 1e9 = 1,000,000,000 a = 1e9 # 10억의 지수표현방식 print(a) # 1000000000 a = 75.25e1 print(a) # 752.5 a = 3954e-3 print(a) # 3.954 🐾 부동 소수점 : 컴퓨터는 2진수 방식으로 수를 처리하기 때문에 실수.. 2022. 9. 1.
Introduction to statistical learning - ch2 🐳 Introduction to statistical learning 교재를 공부한 내용을 정리하였습니다. 📌 summary chapter 2. Statistical learning 💙 실습 데이터셋에 대한 설명 2 - 1️⃣ What is statistical learning 🔹 Advertising data example ▢ 광고와 매출 사이의 관계 : 광고예산에 따른 매출 예측 모델 생성하기 → input : X1 (TV 광고 예산) , X2 (라디오 광고 예산), X3 (신문 광고 예산) → output : Y (매출액) ▢ input 의 동의어 predictors independent variables features variables ▢ output 의 동의어 response dependent.. 2022. 8. 2.
[자격증] AIFB AICE Associate 합격 후기 💡 AIFB 란 (최근 AICE 로 명칭이 바뀌었다) AIFB 자격 시험은 기업 AI 실무 역량을 검정하는 민간자격 시험으로 KT 와 한국표준협회가 공동으로 주관하는 시험에 해당한다. 자격 시험에는 3가지 트랙 중 하나를 선택해 응시할 수 있는데, 필자는 Basic , Associate, Professional 중 Associate 시험에 응시했다. 시험에 대한 자세한 내용과 설명은 아래 링크를 참고하면 큰 도움이 될 것 같다. https://aifb.kt.co.kr/certi/mainSub AIFB aifb.kt.co.kr https://contents.premium.naver.com/maekyung/jobschool/contents/220307173301411Fg 토익, 한국사도 아닌 AI 실무자격인.. 2022. 8. 2.
Mathematical Statistics with application : chapter 2 🐳 Mathematical Statistics with application 교재를 공부한 내용을 정리하였습니다. Probability 1️⃣ Introduction 🔹 확률이란 ▢ 미래의 사건 발생에 대한 신념 ▢ Random events cannot be predicted with certainty, BUT the relative frequency with which they occur in a long series of trials is often remarkably stable 👉 장기적 상대도수 확률 : 실제 경험이나 실험을 통해 결과를 도출하는 확률 ▢ 통계적 확률 : 실험에서 발생하는 결과는 표본이고, 실험을 무한히 반복하는 것은 표본이 모집단이 된다는 의미이며, 상대도수의 극한은 특정 확률.. 2022. 7. 20.
Mathematical Statistics with application : chapter 1 🐳 Mathematical Statistics with application 교재를 공부한 내용을 정리하였습니다. 📌 summary ① 통계학의 목표 : 샘플로부터 모집단을 추론 ② 추론을 하기 위한 도구 : graphical method, numerical method ③ Probability 는 추론 과정의 메커니즘 What is statistics 1️⃣ Introduction 🔹 통계학의 목적 make an infererence about a population based on information contained in a sample from that population and to provide an associated measure of goodness for the inference 통계.. 2022. 7. 18.
[cs224n] 14강 간단 내용정리 📌 핵심 Task : Transformer, Self - Attention ✅ Self Attention 🔹 Seq2Seq learning NMT, QA, Summarization 가변 길이의 data 를 고정 크기의 vector 또는 matrix 로 표현하는 과정이 필수적 🔹 기존 RNN 계열 모델의 한계점 RNN 계열의 모델은 병렬화가 불가능 long-term dependency 를 잘 반영하지 못함 : LSTM, GRU 도 입력 시퀀스가 굉장히 긴 경우에 이를 잘 반영하지 못함 🔹 CNN 모델의 한계점 CNN 은 병렬 처리가 가능하지만 long-term dependency 를 위해 다수의 레이어가 필요하다 🔹 Self attention 병렬화가 가능하고 각 토큰이 최단거리로 연결되기 때문에 long.. 2022. 7. 18.
[cs224n] Future NLP (2021 version) 📌 참고 자료 : https://www.youtube.com/watch?v=dZi6INuLyOQ 1️⃣ GPT-3 ① GPT-1 📌 https://velog.io/@stapers/GPT-1-Languageunderstandingpaper Semi-supervised : Unsupervised pre-training + supervised fine-tuning 1. Pre-train 👉 Unsupervised : Transformer decoder 를 이용해 대량의 레이블이 없는 코퍼스로 LM 을 사전학습 2. Finetune 👉 supervised : pretrain 된 모델을 task 에 맞게 input 과 label 로 구성된 코퍼스에 대해 지도학습을 진행 ✔ Improving Language und.. 2022. 7. 18.
[cs224n] 18강 내용정리 💡 주제 : Tree Recursive Neural Networks, Constituency Parsing, and Sentiment 📌 핵심 Task : TreeRNN 을 활용한 문장 구조 분석 구조적으로 문장을 나누고 각 단어의 조합이 나타내는 의미를 찾아 문장 전체의 의미 파악하기 Simple Tree RNN, SU-RNN, MV-RNN , RNTN TreeRNN 은 현실적으로 사용하기 힘들다고 함 → GPU 연산이 어려움 + 데이터 구축의 어려움 요즘 NLP 에선 TreeRNN 이 아닌 LSTM, CNN, Transformer 등 contextual language model 의 성능이 더 좋음 물리학, 프로그래밍 언어 번역 등 다른 영역에서 적용이 시도되고 있는 상황이다. 1️⃣ Composit.. 2022. 7. 18.
[cs224n] 15강 내용정리 💡 주제 : NLG 📌 핵심 Task : NLG - Natural language generation text summarization 1️⃣ LM and decoding algorithms ① NLG task ✔ NLP = NLU + NLG : 자연어의 의미를 분석해 컴퓨터가 처리할 수 있도록 하는 일 👉 NLU : 자연어를 기계가 이해할 수 있는 형태로 변환하는 NLP 분야 👉 NLG : 시스템 계산 결과를 자연어로 자동 생성하는 NLP 분야 ✔ NLG = 새로운 text 를 만들어 내는 모든 task 를 의미한다. ◽ Task : 기계번역, 텍스트 요약, 채팅, 스토리텔링, QA 등이 있다. ✔ 좋은 NLG 기준 ◽ 적절성 : 생성된 문장이 모호하지 않고 원래의 input text 와 의미가 일치해.. 2022. 7. 4.
728x90