Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Django
- 최소자승법
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- Pandas
- 다층 퍼셉트론
- 구글 BERT의 정석
- 군집화
- 가설검정
- rnn
- numpy
- student t분포
- 밑바닥부터 시작하는 딥러닝
- 회귀분석
- 기초통계
- 차원축소
- 기술통계학
- 자연어 처리
- 파이썬 pandas
- word2vec
- 오래간만에 글쓰네
- F분포
- 텍스트 분류
- 머신러닝
- 감성분석
- 은준아 화이팅
- 모두의 딥러닝
- 히스토그램
- 코사인 유사도
- 결정계수
- 밑바닥부터 시작하는 딥러닝2
Archives
- Today
- Total
목록word2vec 개선 (1)
데이터 한 그릇
word2vec 개선
word2vec 개선 앞에서 만든 word2vec 같은 경우 CBOW 모델이였다. CBOW 모델은 말뭉치의 크기 커지면 계산 시간이 너무 많이 걸린다는 단점이 있다. 이번 장에서는 word2vec 의 속도 개선을 할 것. 첫 번째 개선으로는 `Embedding` 이라는 새로운 계층을 만들 것. 두 번째 개선으로는 `네거티브 샘플링`이라는 새로운 손실 함수를 도입한다. word2vec 개선(1) word2vec 이 시간이 많이 걸리는 두 가지 이유는 아래와 같다. 입력층의 원핫 표현과 가중치 행렬 W_in 의 곱 계산(4.1절에서 해결) 은닉층과 가중치 행렬 W_out 의 곱 및 Softmax 계층의 계산 **첫 번째**는 입력층 단어의 원핫 표현이다. 만일 문서의 전체 말뭉치 개수가 7개면 원핫 표현된 ..
NLP/밑바닥부터 시작하는 딥러닝
2022. 1. 19. 15:23