일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 군집화
- 파이썬 pandas
- numpy
- 구글 BERT의 정석
- student t분포
- 차원축소
- word2vec
- 감성분석
- 은준아 화이팅
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 가설검정
- 밑바닥부터 시작하는 딥러닝2
- 다층 퍼셉트론
- 밑바닥부터 시작하는 딥러닝
- 코사인 유사도
- 히스토그램
- 기초통계
- Django
- 회귀분석
- 기술통계학
- 머신러닝
- 결정계수
- rnn
- 자연어 처리
- Pandas
- 모두의 딥러닝
- 텍스트 분류
- 오래간만에 글쓰네
- 최소자승법
- F분포
- Today
- Total
목록딥러닝/밑바닥부터 시작하는 딥러닝 (6)
데이터 한 그릇
그래프가 굉장히 많은 파트로 책을 참조해서 보는게 훨씬 좋다. 오차역전파 수치 미분을 이용해서 가중치 매개변수의 값을 오차값이 가장 적게 수정하는 과정은 너무 시간이 많이 걸린다. 수치 미분의 과정은 다음과 같았다. 손실 함수 몇 가지(mse, cross_entropy_error)가 있다. x변수와 가중치 w값들을 모두 곱하고 바이어스를 더해서 활성화 함수에 넣어주면 출력 공식 y가 완성이 된다. 이 y를 mse(y), 혹은 cross_entropy_error(y) 로 만들어서 오류에 관련된 하나의 함수로 만들어준다. 이 오류에 대한 함수를 편미분하는 과정을 거치게 된다. 만일 입력 변수가 여러 개이면 x1의 매개변수 w1 에 대해서 편미분 할 수 있다. 만일 초기 w1 value가 있다면 앞서 구한 손..
데이터에서 학습하는 신경망 여기서 말하는 `학습` : 가중치의 최적값을 자동으로 찾는 것 손실함수를 통해서 최적의 가중치 값을 찾는다. 손실함수의 값을 가급적 작게 만드는 기법으로 함수의 기울기를 활용하는 경사법 소개. 처음부터 데이터가 없이, 알고리즘을 무(無)에서 개발. 머신러닝을 통해서 개발 이미지에서 특징 추출 특징의 패턴을 기계학습으로 학습 이미지 데이터를 벡터로 변환 -> 벡터를 이용해서 svm,knn 가용 가능. 하지만 문제에 따라서 그 특징을 다르게 찾아야 한다. 숫자와 강아지 사진의 경우 다른 특징을 생각해야 한다. 결국 기계학습도 사람의 개입이 들어간다. 신경망(딥러닝) 이미지를 있는 그대로 학습한다. 머신러닝에서는 특징을 사람이 설계했지만, 신경망은 이미지에 포함된 중요한 특징까지도 ..