1οΈβ£ AI•DS/π NLP21 [cs224n] 14κ° κ°λ¨ λ΄μ©μ 리 π ν΅μ¬ Task : Transformer, Self - Attention β Self Attention πΉ Seq2Seq learning NMT, QA, Summarization κ°λ³ κΈΈμ΄μ data λ₯Ό κ³ μ ν¬κΈ°μ vector λλ matrix λ‘ νννλ κ³Όμ μ΄ νμμ πΉ κΈ°μ‘΄ RNN κ³μ΄ λͺ¨λΈμ νκ³μ RNN κ³μ΄μ λͺ¨λΈμ λ³λ ¬νκ° λΆκ°λ₯ long-term dependency λ₯Ό μ λ°μνμ§ λͺ»ν¨ : LSTM, GRU λ μ λ ₯ μνμ€κ° κ΅μ₯ν κΈ΄ κ²½μ°μ μ΄λ₯Ό μ λ°μνμ§ λͺ»ν¨ πΉ CNN λͺ¨λΈμ νκ³μ CNN μ λ³λ ¬ μ²λ¦¬κ° κ°λ₯νμ§λ§ long-term dependency λ₯Ό μν΄ λ€μμ λ μ΄μ΄κ° νμνλ€ πΉ Self attention λ³λ ¬νκ° κ°λ₯νκ³ κ° ν ν°μ΄ μ΅λ¨κ±°λ¦¬λ‘ μ°κ²°λκΈ° λλ¬Έμ long.. 2022. 7. 18. [cs224n] Future NLP (2021 version) π μ°Έκ³ μλ£ : https://www.youtube.com/watch?v=dZi6INuLyOQ 1οΈβ£ GPT-3 β GPT-1 π https://velog.io/@stapers/GPT-1-Languageunderstandingpaper Semi-supervised : Unsupervised pre-training + supervised fine-tuning 1. Pre-train π Unsupervised : Transformer decoder λ₯Ό μ΄μ©ν΄ λλμ λ μ΄λΈμ΄ μλ μ½νΌμ€λ‘ LM μ μ¬μ νμ΅ 2. Finetune π supervised : pretrain λ λͺ¨λΈμ task μ λ§κ² input κ³Ό label λ‘ κ΅¬μ±λ μ½νΌμ€μ λν΄ μ§λνμ΅μ μ§ν β Improving Language und.. 2022. 7. 18. [cs224n] 18κ° λ΄μ©μ 리 π‘ μ£Όμ : Tree Recursive Neural Networks, Constituency Parsing, and Sentiment π ν΅μ¬ Task : TreeRNN μ νμ©ν λ¬Έμ₯ ꡬ쑰 λΆμ ꡬ쑰μ μΌλ‘ λ¬Έμ₯μ λλκ³ κ° λ¨μ΄μ μ‘°ν©μ΄ λνλ΄λ μλ―Έλ₯Ό μ°Ύμ λ¬Έμ₯ μ 체μ μλ―Έ νμ νκΈ° Simple Tree RNN, SU-RNN, MV-RNN , RNTN TreeRNN μ νμ€μ μΌλ‘ μ¬μ©νκΈ° νλ€λ€κ³ ν¨ → GPU μ°μ°μ΄ μ΄λ €μ + λ°μ΄ν° ꡬμΆμ μ΄λ €μ μμ¦ NLP μμ TreeRNN μ΄ μλ LSTM, CNN, Transformer λ± contextual language model μ μ±λ₯μ΄ λ μ’μ 물리ν, νλ‘κ·Έλλ° μΈμ΄ λ²μ λ± λ€λ₯Έ μμμμ μ μ©μ΄ μλλκ³ μλ μν©μ΄λ€. 1οΈβ£ Composit.. 2022. 7. 18. [cs224n] 15κ° λ΄μ©μ 리 π‘ μ£Όμ : NLG π ν΅μ¬ Task : NLG - Natural language generation text summarization 1οΈβ£ LM and decoding algorithms β NLG task β NLP = NLU + NLG : μμ°μ΄μ μλ―Έλ₯Ό λΆμν΄ μ»΄ν¨ν°κ° μ²λ¦¬ν μ μλλ‘ νλ μΌ π NLU : μμ°μ΄λ₯Ό κΈ°κ³κ° μ΄ν΄ν μ μλ ννλ‘ λ³ννλ NLP λΆμΌ π NLG : μμ€ν κ³μ° κ²°κ³Όλ₯Ό μμ°μ΄λ‘ μλ μμ±νλ NLP λΆμΌ β NLG = μλ‘μ΄ text λ₯Ό λ§λ€μ΄ λ΄λ λͺ¨λ task λ₯Ό μλ―Ένλ€. β½ Task : κΈ°κ³λ²μ, ν μ€νΈ μμ½, μ±ν , μ€ν 리ν λ§, QA λ±μ΄ μλ€. β μ’μ NLG κΈ°μ€ β½ μ μ μ± : μμ±λ λ¬Έμ₯μ΄ λͺ¨νΈνμ§ μκ³ μλμ input text μ μλ―Έκ° μΌμΉν΄.. 2022. 7. 4. [cs224n] 13κ° λ΄μ©μ 리 π‘ μ£Όμ : Contextual Word Representations and Pretraining π ν΅μ¬ Task : Word representation (Word embedding) , pre-training ELMO, Transforemr, BERT 1οΈβ£ Reflections on word representations 1. Word representation β word embedding β½ μλ μλ² λ©μ ν΅ν΄ λ¨μ΄λ₯Ό 벑ν°λ‘ νννμ¬ μ»΄ν¨ν°κ° μ΄ν΄ν μ μλλ‘ μμ°μ΄λ₯Ό λ³νν΄μ€λ€. β½ Word2Vec, GloVe, fastText λ±μ νμ΅ 2. Pre-trained word vectors μ¬μ νλ ¨λ λ¨μ΄ λ²‘ν° λͺ¨λΈμ΄ νμ΅ν Vocabulary μμ κ° λ¨μ΄λ§λ€ 맀μΉλλ word vector κ°.. 2022. 7. 4. NER μ€μ΅ π νμ¬ μλ£ λ§ν¬ : https://colab.research.google.com/drive/1wsD4VE-GIwn6CASc7RWk3s0PO7FC9LC4?usp=sharing week4_NER_μ€μ΅.ipynb Colaboratory notebook colab.research.google.com NER _ κ°μ²΄λͺ μΈμ β νκΉ μμ νκΉ : κ° λ¨μ΄κ° μ΄λ€ μ νμ μνλμ§ μμλ΄λ μμ λνμ μΈ νκΉ μμ μΌλ‘ κ°μ²΄λͺ μΈμκ³Ό νμ¬νκΉ μ΄ μλ€. νμ¬νκΉ : λ¨μ΄μ νμ¬κ° λͺ μ¬, λμ¬, νμ©μ¬ μΈμ§ μμλ΄λ μμ β κ°μ²΄λͺ μΈμ κ°μ²΄λͺ μΈμμ μ¬μ©νλ©΄ μ½νΌμ€λ‘λΆν° μ΄λ€ λ¨μ΄κ° μ¬λ, μ₯μ, μ‘°μ§ λ±μ μλ―Ένλ λ¨μ΄μΈμ§λ₯Ό μ°Ύμ μ μλ€. 'νΈλΉλ 2022λ μ μΉ΄μΉ΄μ€ μΈν΄μ ν©κ²©νλ€' π νΈλΉ - μ¬λ , 202.. 2022. 6. 2. Glove μ€μ΅ π νμ¬ μλ£ λ§ν¬ : https://colab.research.google.com/drive/148V1ytOU36pT4oX1fbcWUaC3B6F4O62s?usp=sharing week3_Glove μ€μ΅.ipynb Colaboratory notebook colab.research.google.com Glove π‘ λ Όλ¬Έ : https://nlp.stanford.edu/pubs/glove.pdf 1οΈβ£ glove python https://wikidocs.net/22885 05) κΈλ‘λΈ(GloVe) κΈλ‘λΈ(Global Vectors for Word Representation, GloVe)λ μΉ΄μ΄νΈ κΈ°λ°κ³Ό μμΈ‘ κΈ°λ°μ λͺ¨λ μ¬μ©νλ λ°©λ²λ‘ μΌλ‘ 2014λ μ λ―Έκ΅ μ€ν ν¬λλ ... wikidocs.net β κ°λ .. 2022. 5. 31. [cs224n] 12κ° λ΄μ©μ 리 π‘ μ£Όμ : Subword Models π ν΅μ¬ Task : Character level models BPE, WordPiece model, SentencePiece model, hybrid models 1οΈβ£ Linguistic Knowledge 1. μΈμ΄ν κ°λ μ 리 β μμ΄λ‘ Phonology β½ μΈμ΄μ 'μ리' 체κ³λ₯Ό μ°κ΅¬νλ λΆμΌ → μ¬λμ μ μΌλ‘ 무νμ μ리λ₯Ό λΌ μ μμ§λ§, μΈμ΄λ‘ ννλ λλ μ°μμ μΈ μλ¦¬κ° λ²μ£ΌνμΌλ‘ λλ μ Έμ μΈμλλ€. β ννλ‘ Morphology β½ μ΅μνμ μλ―Έλ₯Ό κ°μ§λ ꡬ쑰 β½ λ¨μ΄μ μ΄ν λ³νλ₯Ό μ°κ΅¬νλ λ¬Έλ²μ ν λΆμΌ → μμ λ¨μμ λ¨μ΄λ€μ΄ λͺ¨μ¬ νλμ μλ―Έλ₯Ό μμ± π ννμ λ¨μμ λ¨μ΄λ€μ λ₯λ¬λμ μ¬μ©νλ κ²½μ°λ κ±°μ μλ€. λ¨μ΄λ₯Ό ννμ λ¨μλ‘ μͺΌκ°λ κ³Ό.. 2022. 5. 23. [cs224n] 11κ° λ΄μ© μ 리 π‘ μ£Όμ : ConvNets for NLP π ν΅μ¬ Task : sentence classification CNN, 2014 λ Όλ¬Έ, 2017 λ Όλ¬Έ 1οΈβ£ CNN 1. RNN μ λ¬Έμ β Prefix context λ₯Ό λͺ¨λ ν¬ν¨ β½ the, of .. μ κ°μ prefix context μμ΄ phrase λ₯Ό μ‘μλ΄μ§ λͺ»νλ€. β½ μ΄μ ν ν°λ€μ λν΄ μ°μ°μ λͺ¨λ μ§νν ν λ€μ ν ν°μ λν΄ μ°μ°μ μ§ννλ€. β Last hidden state μ μλ―Έκ° μΆμ½λ¨ β½ softmax κ° λ§μ§λ§ step μμλ§ κ³μ°λλ―λ‘ λ§μ§λ§ λ¨μ΄μ μν₯μ λ§μ΄ λ°λλ€ π λ¨μ μ 보μνκΈ° μν΄ LSTM, GRU, Attention κ°μ λͺ¨λΈλ€μ΄ λ±μ₯ 2. CNN for text β main Idea What if we compu.. 2022. 5. 19. ν μ€νΈ λΆμ β‘ π νμ΄μ¬ λ¨Έμ λ¬λ μλ²½κ°μ΄λ κ³΅λΆ λ΄μ© μ 리 π μ€μ΅ μ½λ https://colab.research.google.com/drive/1aMlFfX927tDFnPUisw2M3tB6NwGy5c7q?usp=sharing 08. ν μ€νΈ λΆμ(2).ipynb Colaboratory notebook colab.research.google.com 1οΈβ£ λ¬Έμ κ΅°μ§ν π‘ λ¬Έμ κ΅°μ§ν β κ°λ λΉμ·ν ν μ€νΈ ꡬμ±μ λ¬Έμλ₯Ό κ΅°μ§ν νλ κ² ν μ€νΈ λΆλ₯ κΈ°λ°μ λ¬Έμ λΆλ₯λ μ¬μ μ target category κ°μ΄ νμνμ§λ§, μ΄ μμ΄λ λΉμ§λ νμ΅ κΈ°λ°μΌλ‘ λμ κ°λ₯νλ€. 1. ν μ€νΈ ν ν°ν & 벑ν°ν 2. κ΅°μ§ν μκ³ λ¦¬μ¦ μ μ© : Kmeans 3. cluster_centers_ λ‘ κ΅°μ§λ³ ν΅μ¬ λ¨μ΄ μΆμΆνκΈ° β μ€μ΅ - .. 2022. 5. 17. μ΄μ 1 2 3 λ€μ 728x90