λ³Έλ¬Έ λ°”λ‘œκ°€κΈ°

1️⃣ AI•DS/πŸ“— NLP21

[cs224n] 14κ°• 간단 λ‚΄μš©μ •λ¦¬ πŸ“Œ 핡심 Task : Transformer, Self - Attention βœ… Self Attention πŸ”Ή Seq2Seq learning NMT, QA, Summarization κ°€λ³€ 길이의 data λ₯Ό κ³ μ • 크기의 vector λ˜λŠ” matrix 둜 ν‘œν˜„ν•˜λŠ” 과정이 ν•„μˆ˜μ  πŸ”Ή κΈ°μ‘΄ RNN 계열 λͺ¨λΈμ˜ ν•œκ³„μ  RNN κ³„μ—΄μ˜ λͺ¨λΈμ€ 병렬화가 λΆˆκ°€λŠ₯ long-term dependency λ₯Ό 잘 λ°˜μ˜ν•˜μ§€ λͺ»ν•¨ : LSTM, GRU 도 μž…λ ₯ μ‹œν€€μŠ€κ°€ ꡉμž₯히 κΈ΄ κ²½μš°μ— 이λ₯Ό 잘 λ°˜μ˜ν•˜μ§€ λͺ»ν•¨ πŸ”Ή CNN λͺ¨λΈμ˜ ν•œκ³„μ  CNN 은 병렬 μ²˜λ¦¬κ°€ κ°€λŠ₯ν•˜μ§€λ§Œ long-term dependency λ₯Ό μœ„ν•΄ λ‹€μˆ˜μ˜ λ ˆμ΄μ–΄κ°€ ν•„μš”ν•˜λ‹€ πŸ”Ή Self attention 병렬화가 κ°€λŠ₯ν•˜κ³  각 토큰이 μ΅œλ‹¨κ±°λ¦¬λ‘œ μ—°κ²°λ˜κΈ° λ•Œλ¬Έμ— long.. 2022. 7. 18.
[cs224n] Future NLP (2021 version) πŸ“Œ μ°Έκ³  자료 : https://www.youtube.com/watch?v=dZi6INuLyOQ 1️⃣ GPT-3 β‘  GPT-1 πŸ“Œ https://velog.io/@stapers/GPT-1-Languageunderstandingpaper Semi-supervised : Unsupervised pre-training + supervised fine-tuning 1. Pre-train πŸ‘‰ Unsupervised : Transformer decoder λ₯Ό μ΄μš©ν•΄ λŒ€λŸ‰μ˜ λ ˆμ΄λΈ”μ΄ μ—†λŠ” μ½”νΌμŠ€λ‘œ LM 을 μ‚¬μ „ν•™μŠ΅ 2. Finetune πŸ‘‰ supervised : pretrain 된 λͺ¨λΈμ„ task 에 맞게 input κ³Ό label 둜 κ΅¬μ„±λœ μ½”νΌμŠ€μ— λŒ€ν•΄ μ§€λ„ν•™μŠ΅μ„ 진행 βœ” Improving Language und.. 2022. 7. 18.
[cs224n] 18κ°• λ‚΄μš©μ •λ¦¬ πŸ’‘ 주제 : Tree Recursive Neural Networks, Constituency Parsing, and Sentiment πŸ“Œ 핡심 Task : TreeRNN 을 ν™œμš©ν•œ λ¬Έμž₯ ꡬ쑰 뢄석 ꡬ쑰적으둜 λ¬Έμž₯을 λ‚˜λˆ„κ³  각 λ‹¨μ–΄μ˜ 쑰합이 λ‚˜νƒ€λ‚΄λŠ” 의미λ₯Ό μ°Ύμ•„ λ¬Έμž₯ μ „μ²΄μ˜ 의미 νŒŒμ•…ν•˜κΈ° Simple Tree RNN, SU-RNN, MV-RNN , RNTN TreeRNN 은 ν˜„μ‹€μ μœΌλ‘œ μ‚¬μš©ν•˜κΈ° νž˜λ“€λ‹€κ³  함 → GPU 연산이 어렀움 + 데이터 κ΅¬μΆ•μ˜ 어렀움 μš”μ¦˜ NLP 에선 TreeRNN 이 μ•„λ‹Œ LSTM, CNN, Transformer λ“± contextual language model 의 μ„±λŠ₯이 더 μ’‹μŒ 물리학, ν”„λ‘œκ·Έλž˜λ° μ–Έμ–΄ λ²ˆμ—­ λ“± λ‹€λ₯Έ μ˜μ—­μ—μ„œ 적용이 μ‹œλ„λ˜κ³  μžˆλŠ” 상황이닀. 1️⃣ Composit.. 2022. 7. 18.
[cs224n] 15κ°• λ‚΄μš©μ •λ¦¬ πŸ’‘ 주제 : NLG πŸ“Œ 핡심 Task : NLG - Natural language generation text summarization 1️⃣ LM and decoding algorithms β‘  NLG task βœ” NLP = NLU + NLG : μžμ—°μ–΄μ˜ 의미λ₯Ό 뢄석해 컴퓨터가 μ²˜λ¦¬ν•  수 μžˆλ„λ‘ ν•˜λŠ” 일 πŸ‘‰ NLU : μžμ—°μ–΄λ₯Ό 기계가 이해할 수 μžˆλŠ” ν˜•νƒœλ‘œ λ³€ν™˜ν•˜λŠ” NLP λΆ„μ•Ό πŸ‘‰ NLG : μ‹œμŠ€ν…œ 계산 κ²°κ³Όλ₯Ό μžμ—°μ–΄λ‘œ μžλ™ μƒμ„±ν•˜λŠ” NLP λΆ„μ•Ό βœ” NLG = μƒˆλ‘œμš΄ text λ₯Ό λ§Œλ“€μ–΄ λ‚΄λŠ” λͺ¨λ“  task λ₯Ό μ˜λ―Έν•œλ‹€. β—½ Task : κΈ°κ³„λ²ˆμ—­, ν…μŠ€νŠΈ μš”μ•½, μ±„νŒ…, μŠ€ν† λ¦¬ν…”λ§, QA 등이 μžˆλ‹€. βœ” 쒋은 NLG κΈ°μ€€ β—½ μ μ ˆμ„± : μƒμ„±λœ λ¬Έμž₯이 λͺ¨ν˜Έν•˜μ§€ μ•Šκ³  μ›λž˜μ˜ input text 와 μ˜λ―Έκ°€ μΌμΉ˜ν•΄.. 2022. 7. 4.
[cs224n] 13κ°• λ‚΄μš©μ •λ¦¬ πŸ’‘ 주제 : Contextual Word Representations and Pretraining πŸ“Œ 핡심 Task : Word representation (Word embedding) , pre-training ELMO, Transforemr, BERT 1️⃣ Reflections on word representations 1. Word representation βœ” word embedding β—½ μ›Œλ“œ μž„λ² λ”©μ„ 톡해 단어λ₯Ό λ²‘ν„°λ‘œ ν‘œν˜„ν•˜μ—¬ 컴퓨터가 이해할 수 μžˆλ„λ‘ μžμ—°μ–΄λ₯Ό λ³€ν™˜ν•΄μ€€λ‹€. β—½ Word2Vec, GloVe, fastText 등을 ν•™μŠ΅ 2. Pre-trained word vectors 사전 ν›ˆλ ¨λœ 단어 벑터 λͺ¨λΈμ΄ ν•™μŠ΅ν•œ Vocabulary μ—μ„œ 각 λ‹¨μ–΄λ§ˆλ‹€ λ§€μΉ­λ˜λŠ” word vector κ°€.. 2022. 7. 4.
NER μ‹€μŠ΅ πŸ“Œ 필사 자료 링크 : https://colab.research.google.com/drive/1wsD4VE-GIwn6CASc7RWk3s0PO7FC9LC4?usp=sharing week4_NER_μ‹€μŠ΅.ipynb Colaboratory notebook colab.research.google.com NER _ 개체λͺ… 인식 βœ” νƒœκΉ… μž‘μ—… νƒœκΉ… : 각 단어가 μ–΄λ–€ μœ ν˜•μ— μ†ν•˜λŠ”μ§€ μ•Œμ•„λ‚΄λŠ” μž‘μ—… λŒ€ν‘œμ μΈ νƒœκΉ… μž‘μ—…μœΌλ‘œ 개체λͺ… 인식과 ν’ˆμ‚¬νƒœκΉ…μ΄ μžˆλ‹€. ν’ˆμ‚¬νƒœκΉ… : λ‹¨μ–΄μ˜ ν’ˆμ‚¬κ°€ λͺ…사, 동사, ν˜•μš©μ‚¬ 인지 μ•Œμ•„λ‚΄λŠ” μž‘μ—… βœ” 개체λͺ… 인식 개체λͺ… 인식을 μ‚¬μš©ν•˜λ©΄ μ½”νΌμŠ€λ‘œλΆ€ν„° μ–΄λ–€ 단어가 μ‚¬λžŒ, μž₯μ†Œ, 쑰직 등을 μ˜λ―Έν•˜λŠ” 단어인지λ₯Ό 찾을 수 μžˆλ‹€. 'ν˜ΈλΉ„λŠ” 2022년에 카카였 인턴에 ν•©κ²©ν–ˆλ‹€' πŸ‘‰ ν˜ΈλΉ„ - μ‚¬λžŒ , 202.. 2022. 6. 2.
Glove μ‹€μŠ΅ πŸ“Œ 필사 자료 링크 : https://colab.research.google.com/drive/148V1ytOU36pT4oX1fbcWUaC3B6F4O62s?usp=sharing week3_Glove μ‹€μŠ΅.ipynb Colaboratory notebook colab.research.google.com Glove πŸ’‘ λ…Όλ¬Έ : https://nlp.stanford.edu/pubs/glove.pdf 1️⃣ glove python https://wikidocs.net/22885 05) κΈ€λ‘œλΈŒ(GloVe) κΈ€λ‘œλΈŒ(Global Vectors for Word Representation, GloVe)λŠ” 카운트 기반과 예츑 κΈ°λ°˜μ„ λͺ¨λ‘ μ‚¬μš©ν•˜λŠ” λ°©λ²•λ‘ μœΌλ‘œ 2014년에 λ―Έκ΅­ μŠ€νƒ ν¬λ“œλŒ€ ... wikidocs.net βœ” κ°œλ….. 2022. 5. 31.
[cs224n] 12κ°• λ‚΄μš©μ •λ¦¬ πŸ’‘ 주제 : Subword Models πŸ“Œ 핡심 Task : Character level models BPE, WordPiece model, SentencePiece model, hybrid models 1️⃣ Linguistic Knowledge 1. μ–Έμ–΄ν•™ κ°œλ… 정리 βœ” 음운둠 Phonology β—½ μ–Έμ–΄μ˜ 'μ†Œλ¦¬' 체계λ₯Ό μ—°κ΅¬ν•˜λŠ” λΆ„μ•Ό → μ‚¬λžŒμ˜ μž…μœΌλ‘œ λ¬΄ν•œμ˜ μ†Œλ¦¬λ₯Ό λ‚Ό 수 μžˆμ§€λ§Œ, μ–Έμ–΄λ‘œ ν‘œν˜„λ  λ•ŒλŠ” 연속적인 μ†Œλ¦¬κ°€ λ²”μ£Όν˜•μœΌλ‘œ λ‚˜λˆ μ Έμ„œ μΈμ‹λœλ‹€. βœ” ν˜•νƒœλ‘  Morphology β—½ μ΅œμ†Œν•œμ˜ 의미λ₯Ό κ°€μ§€λŠ” ꡬ쑰 β—½ λ‹¨μ–΄μ˜ μ–΄ν˜• λ³€ν™”λ₯Ό μ—°κ΅¬ν•˜λŠ” λ¬Έλ²•μ˜ ν•œ λΆ„μ•Ό → μž‘μ€ λ‹¨μœ„μ˜ 단어듀이 λͺ¨μ—¬ ν•˜λ‚˜μ˜ 의미λ₯Ό μ™„μ„± πŸ‘‰ ν˜•νƒœμ†Œ λ‹¨μœ„μ˜ 단어듀을 λ”₯λŸ¬λ‹μ— μ‚¬μš©ν•˜λŠ” κ²½μš°λŠ” 거의 μ—†λ‹€. 단어λ₯Ό ν˜•νƒœμ†Œ λ‹¨μœ„λ‘œ μͺΌκ°œλŠ” κ³Ό.. 2022. 5. 23.
[cs224n] 11κ°• λ‚΄μš© 정리 πŸ’‘ 주제 : ConvNets for NLP πŸ“Œ 핡심 Task : sentence classification CNN, 2014 λ…Όλ¬Έ, 2017 λ…Όλ¬Έ 1️⃣ CNN 1. RNN 의 문제 βœ” Prefix context λ₯Ό λͺ¨λ‘ 포함 β—½ the, of .. 와 같은 prefix context 없이 phrase λ₯Ό μž‘μ•„λ‚΄μ§€ λͺ»ν•œλ‹€. β—½ 이전 토큰듀에 λŒ€ν•΄ 연산을 λͺ¨λ‘ μ§„ν–‰ν•œ ν›„ λ‹€μŒ 토큰에 λŒ€ν•΄ 연산을 μ§„ν–‰ν•œλ‹€. βœ” Last hidden state 에 μ˜λ―Έκ°€ 좕약됨 β—½ softmax κ°€ λ§ˆμ§€λ§‰ step μ—μ„œλ§Œ κ³„μ‚°λ˜λ―€λ‘œ λ§ˆμ§€λ§‰ 단어에 영ν–₯을 많이 λ°›λŠ”λ‹€ πŸ‘‰ 단점을 λ³΄μ™„ν•˜κΈ° μœ„ν•΄ LSTM, GRU, Attention 같은 λͺ¨λΈλ“€μ΄ λ“±μž₯ 2. CNN for text βœ” main Idea What if we compu.. 2022. 5. 19.
ν…μŠ€νŠΈ 뢄석 β‘‘ πŸ“Œ 파이썬 λ¨Έμ‹ λŸ¬λ‹ μ™„λ²½κ°€μ΄λ“œ 곡뢀 λ‚΄μš© 정리 πŸ“Œ μ‹€μŠ΅ μ½”λ“œ https://colab.research.google.com/drive/1aMlFfX927tDFnPUisw2M3tB6NwGy5c7q?usp=sharing 08. ν…μŠ€νŠΈ 뢄석(2).ipynb Colaboratory notebook colab.research.google.com 1️⃣ λ¬Έμ„œ ꡰ집화 πŸ’‘ λ¬Έμ„œ ꡰ집화 βœ” κ°œλ… λΉ„μŠ·ν•œ ν…μŠ€νŠΈ κ΅¬μ„±μ˜ λ¬Έμ„œλ₯Ό ꡰ집화 ν•˜λŠ” 것 ν…μŠ€νŠΈ λΆ„λ₯˜ 기반의 λ¬Έμ„œ λΆ„λ₯˜λŠ” 사전에 target category 값이 ν•„μš”ν•˜μ§€λ§Œ, 이 없이도 비지도 ν•™μŠ΅ 기반으둜 λ™μž‘ κ°€λŠ₯ν•˜λ‹€. 1. ν…μŠ€νŠΈ 토큰화 & 벑터화 2. ꡰ집화 μ•Œκ³ λ¦¬μ¦˜ 적용 : Kmeans 3. cluster_centers_ 둜 ꡰ집별 핡심 단어 μΆ”μΆœν•˜κΈ° βœ” μ‹€μŠ΅ - .. 2022. 5. 17.
728x90