일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- Pandas
- 코사인 유사도
- student t분포
- 모두의 딥러닝
- 차원축소
- 감성분석
- 오래간만에 글쓰네
- 가설검정
- 다층 퍼셉트론
- 밑바닥부터 시작하는 딥러닝2
- 은준아 화이팅
- 기초통계
- 최소자승법
- word2vec
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 히스토그램
- rnn
- 밑바닥부터 시작하는 딥러닝
- 텍스트 분류
- 자연어 처리
- 회귀분석
- 파이썬 pandas
- 군집화
- 머신러닝
- numpy
- F분포
- Django
- 구글 BERT의 정석
- 결정계수
- 기술통계학
- Today
- Total
목록밑바닥부터 시작하는 딥러닝 (4)
데이터 한 그릇
합성곱 신경망(CNN) 기존 신경망의 계층 구조(일반적인) 5층을 세워보자. (Affine -> Relu) => (Affine -> Relu) => (Affine -> Relu) => (Affine -> Relu) => (Affine -> Softmax) ------> CNN 신경망의 계층 구조(일반적인) (Conv -> Relu -> Pooling) => (Conv -> Relu -> Pooling) => (Conv -> Relu) => (Affine -> Relu) -> (Affine-> Softma) 합성곱 계층 완전연결 계층의 문제점 (Affine 계층이 문제점) Affine 계층의 문제점은 데이터의 공간적 형상에 담긴 정보를 무시한다는 점이다. 즉, 데이터의 형상이 무시된다는 것. 예를 들어서 ..
데이터에서 학습하는 신경망 여기서 말하는 `학습` : 가중치의 최적값을 자동으로 찾는 것 손실함수를 통해서 최적의 가중치 값을 찾는다. 손실함수의 값을 가급적 작게 만드는 기법으로 함수의 기울기를 활용하는 경사법 소개. 처음부터 데이터가 없이, 알고리즘을 무(無)에서 개발. 머신러닝을 통해서 개발 이미지에서 특징 추출 특징의 패턴을 기계학습으로 학습 이미지 데이터를 벡터로 변환 -> 벡터를 이용해서 svm,knn 가용 가능. 하지만 문제에 따라서 그 특징을 다르게 찾아야 한다. 숫자와 강아지 사진의 경우 다른 특징을 생각해야 한다. 결국 기계학습도 사람의 개입이 들어간다. 신경망(딥러닝) 이미지를 있는 그대로 학습한다. 머신러닝에서는 특징을 사람이 설계했지만, 신경망은 이미지에 포함된 중요한 특징까지도 ..