Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 파이썬 pandas
- 가설검정
- 오래간만에 글쓰네
- numpy
- 감성분석
- 다층 퍼셉트론
- 회귀분석
- 기초통계
- 모두의 딥러닝
- student t분포
- 기술통계학
- 최소자승법
- 군집화
- 은준아 화이팅
- 텍스트 분류
- Django
- 밑바닥부터 시작하는 딥러닝2
- Pandas
- 히스토그램
- word2vec
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- F분포
- 머신러닝
- 밑바닥부터 시작하는 딥러닝
- 자연어 처리
- 차원축소
- 결정계수
- rnn
- 코사인 유사도
- 구글 BERT의 정석
Archives
- Today
- Total
목록지식 증류 기반 파생 모델 (1)
데이터 한 그릇
BERT 파생 모델 2 : 지식 증류 기반
저번 장에서 사전 학습된 BERT 모델을 사용하는 방법을 살펴봤다. 다운 스트림 태스크에서 사전 학습된 BERT를 파인 튜닝할 수 있었다. Issue: 다만, 사전 학습된 BERT 는 계산 비용이 많이 들고, **매개변수가 많고** 추론에 시간이 오래 걸린다. solution : 사전 학습된 대형 BERT (large BERT) 를 소형 BERT(small BERT) 로 지식을 이전하는 **지식 증류**를 사용할 수 있다. (대형 BERT => 소형 BERT) 지식 증류 소개 DistilBERT : BERT의 증류 버전 TinyBERT 소개 BERT 에서 신경망으로 지식 전달 지식 증류 소개 지식 증류(Knowledge distillation) 대형 모델의 동작을 재현하기 위해서 소형 모델을 학습시키는 ..
NLP/구글 BERT의 정석
2022. 2. 16. 15:04