Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 구글 BERT의 정석
- 히스토그램
- 머신러닝
- 모두의 딥러닝
- 결정계수
- Pandas
- rnn
- 다층 퍼셉트론
- 회귀분석
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- F분포
- numpy
- word2vec
- 군집화
- 코사인 유사도
- 가설검정
- 밑바닥부터 시작하는 딥러닝2
- 밑바닥부터 시작하는 딥러닝
- 은준아 화이팅
- Django
- 파이썬 pandas
- 최소자승법
- 자연어 처리
- 차원축소
- 기술통계학
- 감성분석
- student t분포
- 오래간만에 글쓰네
- 텍스트 분류
- 기초통계
Archives
- Today
- Total
목록쿼리행렬 키행렬 밸류행렬 (1)
데이터 한 그릇
BERT시작하기 - 트랜스포머 입문
트랜스포머 소개 RNN과 LSTM 네트워크는 다음 단어 예측, 기계번역, 텍스트 생성에 사용된다. 그러나 RNN 기반의 모델들은 네트워크 장기 의존선 문제가 있다. 이러한 한계를 극복하고자 "Attention is all you Need" 라는 논문에서 트랜스포머 아키텍처를 제안한다. 트랜스포머 기반으로 BERT, GPT-3, T5 등과 같은 혁명적인 아키텍처가 발전하는 기반이 마련됐다. 트랜스포머는 RNN에서 사용한 순환 방식을 사용하지 않고 순수하게 어텐션만 사용한다. 트랜스포머는 셀프 어텐션이라는 특수한 형태의 어텐션을 사용한다. (순수하게 어텐션만 사용, 셀프 어텐션 기술 사용) 트랜스포머의 인코더 디코더의 작동원리는 대략적으로 이해해보자. 먼저 영어를 프랑스어로 바꾸는 작업을 하고 싶다고 하자...
NLP/구글 BERT의 정석
2022. 2. 3. 16:57