Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 다층 퍼셉트론
- student t분포
- 히스토그램
- 결정계수
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 기술통계학
- Pandas
- 기초통계
- 은준아 화이팅
- 오래간만에 글쓰네
- 밑바닥부터 시작하는 딥러닝2
- 자연어 처리
- 군집화
- 감성분석
- 모두의 딥러닝
- 구글 BERT의 정석
- 머신러닝
- Django
- 밑바닥부터 시작하는 딥러닝
- word2vec
- 코사인 유사도
- rnn
- 회귀분석
- 가설검정
- 텍스트 분류
- 최소자승법
- 차원축소
- 파이썬 pandas
- F분포
- numpy
Archives
- Today
- Total
목록트랜스포머 인코더 (1)
데이터 한 그릇
BERT시작하기 - 트랜스포머 입문
트랜스포머 소개 RNN과 LSTM 네트워크는 다음 단어 예측, 기계번역, 텍스트 생성에 사용된다. 그러나 RNN 기반의 모델들은 네트워크 장기 의존선 문제가 있다. 이러한 한계를 극복하고자 "Attention is all you Need" 라는 논문에서 트랜스포머 아키텍처를 제안한다. 트랜스포머 기반으로 BERT, GPT-3, T5 등과 같은 혁명적인 아키텍처가 발전하는 기반이 마련됐다. 트랜스포머는 RNN에서 사용한 순환 방식을 사용하지 않고 순수하게 어텐션만 사용한다. 트랜스포머는 셀프 어텐션이라는 특수한 형태의 어텐션을 사용한다. (순수하게 어텐션만 사용, 셀프 어텐션 기술 사용) 트랜스포머의 인코더 디코더의 작동원리는 대략적으로 이해해보자. 먼저 영어를 프랑스어로 바꾸는 작업을 하고 싶다고 하자...
NLP/구글 BERT의 정석
2022. 2. 3. 16:57