Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Pandas
- 결정계수
- 코사인 유사도
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 회귀분석
- 기술통계학
- 텍스트 분류
- rnn
- 군집화
- numpy
- Django
- 감성분석
- F분포
- 밑바닥부터 시작하는 딥러닝2
- 가설검정
- 최소자승법
- 차원축소
- 구글 BERT의 정석
- word2vec
- 모두의 딥러닝
- 은준아 화이팅
- 오래간만에 글쓰네
- 머신러닝
- 밑바닥부터 시작하는 딥러닝
- student t분포
- 자연어 처리
- 다층 퍼셉트론
- 히스토그램
- 파이썬 pandas
- 기초통계
Archives
- Today
- Total
목록구글 BERT 정석 (1)
데이터 한 그릇
BERT 파생 모델
BERT의 파생 모델 I: ALBERT, RoBERTa, ELECTRA, SpanBERT ALBERT : BERT 의 라이트 버전 (BERT 아키텍처의 변화가 거의 없는 편) RoBERT : BERT 파생 버전 중에 가장 많이 쓰이는 방법 중 하나. 사전 학습 단계에서 몇 가지 차이가 존재. ELECTRA : 다른 파생 모델들과 달리 생성기(generator) 와 판별기(discriminator) 를 사용한다. 또한 사전 학습 과정에 교체된 토큰 판별 태스크(replaced token detection task) 라는 태스크를 사용한다. SpanBERT : SpanBERT는 질문-응답, 관계 추출 등과 같은 태스크에 널리 사용되고 있다. ALBERT RoBERT ELECTRA SpanBERT ALBERT..
NLP/구글 BERT의 정석
2022. 2. 15. 14:56