![](https://img1.daumcdn.net/thumb/R750x0/?scode=mtistory2&fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdn%2FWa8Lb%2FbtsdjpsOmOL%2FGkRwUKt0bDB4uPkivune3K%2Fimg.png)
언어 모델의 발전 과정을 전체적으로 톺아보기 위한 포스팅이다. (1) NLP의 이해/ RNN / LSTM https://emperor-one-data-study.tistory.com/35 (2) Seq2seq와 Attention (3)Transformer (4) Transformer 계열 모델 - encoder only / encoder-decoder / decoder only (5) In context learning (6) promting for few-shot learnig 순서로 전체적인 흐름을 정리해본다. (추후 순서 변경 가능!) LM 모델의 발전 이 전 포스팅에서, NLP 모델의 기초가 되었던 RNN과 LSTM에 대해 알아보았다. LSTM에서 발생하는 문제점들을 보완하기 위해 Encoder-..