Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Pandas
- 은준아 화이팅
- 감성분석
- numpy
- 결정계수
- Django
- 코사인 유사도
- F분포
- 파이썬 pandas
- 기술통계학
- 다층 퍼셉트론
- 구글 BERT의 정석
- student t분포
- 회귀분석
- 밑바닥부터 시작하는 딥러닝2
- 히스토그램
- 머신러닝
- 최소자승법
- 밑바닥부터 시작하는 딥러닝
- 가설검정
- 자연어 처리
- word2vec
- 텍스트 분류
- 군집화
- 모두의 딥러닝
- 오래간만에 글쓰네
- rnn
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 차원축소
- 기초통계
Archives
- Today
- Total
목록RNNLM (1)
데이터 한 그릇
순환신경망(RNN)
순환 신경망(RNN) 지금까지 우리가 살펴봤던 신경망은 모두 피드포워드(feed forward) 신경망이다. 피드포워드 신경망은 값의 흐름이 단방향인 신경망을 의미한다. 하지만 피드포워드 신경망은 시계열 데이터의 성질이나 패턴에 대해서 제대로 학습할 수 없다. 따라서 그 대체로 등장한 신경망이 "순환 신경망(RNN)" 이다. 확률과 언어 모델 word2vec을 확률 관점에서 바라보다. 말뭉치 W가 있다고 가정해보자. 말뭉치 W는 [w1, w2, w3, wt-1, wt, wt+1, w....] 로 이루어져 있다고 하자. word2vec 은 타깃단어를 맥락 단어들로 추론하는 방법을 사용한다. 타깃단어를 wt 라고 정하고 맥락 단어들을 wt-1, wt+1 로 정한다. 즉, wt-1, wt+1 이 주어졌을 때,..
NLP/밑바닥부터 시작하는 딥러닝
2022. 1. 20. 17:40