Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 결정계수
- 코사인 유사도
- 텍스트 분류
- 머신러닝
- 구글 BERT의 정석
- F분포
- numpy
- word2vec
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 은준아 화이팅
- 기초통계
- 밑바닥부터 시작하는 딥러닝2
- 모두의 딥러닝
- Pandas
- 히스토그램
- 자연어 처리
- rnn
- 최소자승법
- 기술통계학
- Django
- 오래간만에 글쓰네
- 군집화
- 감성분석
- 가설검정
- 파이썬 pandas
- 다층 퍼셉트론
- 차원축소
- 밑바닥부터 시작하는 딥러닝
- 회귀분석
- student t분포
Archives
- Today
- Total
목록기올기소실 (1)
데이터 한 그릇
게이트가 추가된 RNN
RNN 은 그 구조도 단순하여 구현도 쉬웠지만 단점이 존재한다. 바로 성능이 좋지 않다는 점인데, 그 이유는 멀리 떨어진 장기(long term) 관계를 잘 학습할 수 없기 때문이다. 따라서 이번 장에서는 단순 RNN 성능을 보완한 LSTM 이나 GRU 계층이 쓰인다. LSTM이나 GRU 는 게이트(gate) 라는 구조가 더해진다. 이 게이트 덕분에 장기 의존 관계를 학습할 수 있다. (멀리 떨어진 단어를 잘 학습할 수 있다.) RNN 의 문제점 RNN은 장기 의존 관계를 잘 학습할 수 없는데, 그 이유는 기울기 소실 문제가 일어나거나 기울기 폭발 문제가 일어나기 때문이다. 기울기 소실 문제는 오차역전파시 기울기가 소실되는 문제를 의미하고 기울기 폭발 문제는 그 반대로 기울기가 너무 큰 숫자가 되는 것을..
NLP/밑바닥부터 시작하는 딥러닝
2022. 1. 21. 21:08