일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 밑바닥부터 시작하는 딥러닝2
- 머신러닝
- 결정계수
- 구글 BERT의 정석
- 다층 퍼셉트론
- 기술통계학
- 최소자승법
- 가설검정
- 텍스트 분류
- word2vec
- numpy
- student t분포
- 군집화
- 차원축소
- 기초통계
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 파이썬 pandas
- 회귀분석
- Pandas
- 오래간만에 글쓰네
- F분포
- 자연어 처리
- 감성분석
- 코사인 유사도
- 히스토그램
- 밑바닥부터 시작하는 딥러닝
- Django
- rnn
- 은준아 화이팅
- 모두의 딥러닝
- Today
- Total
목록머신러닝 (36)
데이터 한 그릇
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/WujKZ/btq5pES7LiN/A1aBi7feYYAnfhohxJJk1K/img.png)
k-평균 알고리즘 이해 군집화 알고리즘 테스트 해보기 군집평가 k-평균 알고리즘 이해 k-평균 알고리즘은 군집화 데이터 분석을 할 때 가장 많이 사용되는 알고리즘 중 하나이다. 특정 지점을 임의로 선택하고 그 지점에 가까운 데이터들을 선택하는 군집화 기법이다. 처음에 임의로 지정되었던 군집 중심점은 첫 선택된 데이터들의 평균 중심지점을 계산하고 그곳으로 이동한다. 계속 이러한 과정을 반복하면서 더이상 군집 중심점의 이동이 없다면 데이터 학습을 마치게 된다. k-평균은 알고리즘이 단순하고 간결하다는 장점을 가지고 있다. 반면에 군집화의 정확도가 떨어지고 반복을 수행하는 횟수가 많을수록 처리속도가 느리다는 단점도 존재한다. from sklearn.preprocessing import scale from sk..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bKhVsk/btq4IDVau6G/bdN97eKfopb30jRsTxOaNK/img.png)
LDA LDA 실습 SVD SVD 실습 NMF NMF 실습 LDA LDA(Linear Discriminant Analysis)는 선형 판별 분석법으로 불린다. PCA와 매우 유사하지만 PCA같은 경우 데이터의 변동성이 가장 큰 벡터를 찾았지만 LDA같은 경우에는 타겟 데이터를 잘 분류하기 위해서 결정 값들을 최대한 분류할 수 있는 벡터를 찾는다. LDA는 특정 공간상에서 결정 값을 분리하는 것을 최대화 하기 위해, 클래스 간 분산(between-class-scatter)과 클래스 내부 분산(within-class-scatter)의 비율을 최대화하는 방식으로 벡터를 찾는다. 비율을 최대화 하기 위해서는 클래스 간 분산을 최대화 시키고 클래스 내부 분산을 최소화 시키면 된다. 결국 LDA는 PCA와 달리 데..