일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 코사인 유사도
- 머신러닝
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 밑바닥부터 시작하는 딥러닝
- 히스토그램
- 구글 BERT의 정석
- 가설검정
- 모두의 딥러닝
- 파이썬 pandas
- F분포
- 감성분석
- student t분포
- 기술통계학
- Django
- 회귀분석
- 자연어 처리
- 기초통계
- 결정계수
- 군집화
- word2vec
- numpy
- 밑바닥부터 시작하는 딥러닝2
- 최소자승법
- 차원축소
- 다층 퍼셉트론
- 은준아 화이팅
- rnn
- Pandas
- 오래간만에 글쓰네
- 텍스트 분류
- Today
- Total
목록머신러닝 (36)
데이터 한 그릇

k-평균 알고리즘 이해 군집화 알고리즘 테스트 해보기 군집평가 k-평균 알고리즘 이해 k-평균 알고리즘은 군집화 데이터 분석을 할 때 가장 많이 사용되는 알고리즘 중 하나이다. 특정 지점을 임의로 선택하고 그 지점에 가까운 데이터들을 선택하는 군집화 기법이다. 처음에 임의로 지정되었던 군집 중심점은 첫 선택된 데이터들의 평균 중심지점을 계산하고 그곳으로 이동한다. 계속 이러한 과정을 반복하면서 더이상 군집 중심점의 이동이 없다면 데이터 학습을 마치게 된다. k-평균은 알고리즘이 단순하고 간결하다는 장점을 가지고 있다. 반면에 군집화의 정확도가 떨어지고 반복을 수행하는 횟수가 많을수록 처리속도가 느리다는 단점도 존재한다. from sklearn.preprocessing import scale from sk..

LDA LDA 실습 SVD SVD 실습 NMF NMF 실습 LDA LDA(Linear Discriminant Analysis)는 선형 판별 분석법으로 불린다. PCA와 매우 유사하지만 PCA같은 경우 데이터의 변동성이 가장 큰 벡터를 찾았지만 LDA같은 경우에는 타겟 데이터를 잘 분류하기 위해서 결정 값들을 최대한 분류할 수 있는 벡터를 찾는다. LDA는 특정 공간상에서 결정 값을 분리하는 것을 최대화 하기 위해, 클래스 간 분산(between-class-scatter)과 클래스 내부 분산(within-class-scatter)의 비율을 최대화하는 방식으로 벡터를 찾는다. 비율을 최대화 하기 위해서는 클래스 간 분산을 최대화 시키고 클래스 내부 분산을 최소화 시키면 된다. 결국 LDA는 PCA와 달리 데..