downstream data를 얼마나 사용하는지, 이를 활용하여 모델 업데이트를 얼마나 하는지에 따라 나눌 수 있다.
- finetuning: data 전체 사용하여 모델 전체 업데이트
- prompt tuning: data 전체 사용하여 모델 일부만 업데이트
- in-context learning: data 일부 사용하며 모델 업데이트 안함
- zero-shot learning: data 아에 사용 안하고 바로 task 수행
- one-shot learning: data 1건 사용. 1건의 데이터가 어떻게 수행되는지를 참고한 후 task 수행
- few-shot learning: data 몇개만 사용.
최근 언어 모델의 크기가 커지고 있어, 비용과 시간상의 문제로 finetuning 외의 학습 방식이 주목 받고 있다. 특히, 모델을 업데이트하지 않고 downstream task를 바로 수행할 수 있는 in-context 방식이 많이 사용되고 있다.
300x250
'TIL' 카테고리의 다른 글
[Mac] 맥북에 주피터 랩 (Jupyter lab) 설치하기 / 실행 화면 (0) | 2022.06.02 |
---|---|
파이썬 print 없이 여러 코드 동시출력하기/ InteractiveShell (0) | 2022.05.09 |
AI 트렌드 확인할 수 있는 사이트 / 논문 찾는 사이트 모음 (0) | 2022.04.22 |
셀레니움 네이버 장소 리뷰 크롤링 / xpath 클릭이 안될 때 (0) | 2022.04.17 |
[DB/ SQL]CSV to SQL/ table data import wizard /연결 오류 해결 (0) | 2022.04.17 |