Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 다층 퍼셉트론
- 코사인 유사도
- 은준아 화이팅
- Django
- Pandas
- 감성분석
- 히스토그램
- 차원축소
- 구글 BERT의 정석
- word2vec
- 결정계수
- 기초통계
- 텍스트 분류
- 자연어 처리
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- rnn
- 회귀분석
- 파이썬 pandas
- 모두의 딥러닝
- 밑바닥부터 시작하는 딥러닝2
- numpy
- 밑바닥부터 시작하는 딥러닝
- 군집화
- F분포
- 기술통계학
- 가설검정
- 최소자승법
- student t분포
- 오래간만에 글쓰네
- 머신러닝
Archives
- Today
- Total
목록셀프 어텐션 (1)
데이터 한 그릇
BERT시작하기 - 트랜스포머 입문
트랜스포머 소개 RNN과 LSTM 네트워크는 다음 단어 예측, 기계번역, 텍스트 생성에 사용된다. 그러나 RNN 기반의 모델들은 네트워크 장기 의존선 문제가 있다. 이러한 한계를 극복하고자 "Attention is all you Need" 라는 논문에서 트랜스포머 아키텍처를 제안한다. 트랜스포머 기반으로 BERT, GPT-3, T5 등과 같은 혁명적인 아키텍처가 발전하는 기반이 마련됐다. 트랜스포머는 RNN에서 사용한 순환 방식을 사용하지 않고 순수하게 어텐션만 사용한다. 트랜스포머는 셀프 어텐션이라는 특수한 형태의 어텐션을 사용한다. (순수하게 어텐션만 사용, 셀프 어텐션 기술 사용) 트랜스포머의 인코더 디코더의 작동원리는 대략적으로 이해해보자. 먼저 영어를 프랑스어로 바꾸는 작업을 하고 싶다고 하자...
NLP/구글 BERT의 정석
2022. 2. 3. 16:57