Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 감성분석
- 오래간만에 글쓰네
- 텍스트 분류
- 차원축소
- 기술통계학
- F분포
- student t분포
- 은준아 화이팅
- 코사인 유사도
- 모두의 딥러닝
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 회귀분석
- word2vec
- Django
- 파이썬 pandas
- 군집화
- 머신러닝
- 구글 BERT의 정석
- 가설검정
- 자연어 처리
- rnn
- 최소자승법
- 밑바닥부터 시작하는 딥러닝
- 결정계수
- 히스토그램
- 밑바닥부터 시작하는 딥러닝2
- 다층 퍼셉트론
- 기초통계
- numpy
- Pandas
Archives
- Today
- Total
목록파이썬 차원축소 개요 (1)
데이터 한 그릇
차원 축소 개요와 PCA개요
차원 축소란 PCA 개요 차원 축소란? 머신러닝 차원 축소 편에서는 대표적인 차원 축소 알고리즘인 PCA, LDA, SVD, NMF에 대해서 살펴볼 예정이다. 차원 축소란 매우 많은 피처로 구성된 데이터 세트의 차원을 축소해 새로운 차원의 데이터 세트를 생성하는 것이다. 일반적으로 차원이 증가할수록 데이터 포인트 간의 거리가 기하급수적으로 증가한다. 따라서 수많은 데이터 피처를 가지고 있는 데이터 세트 경우에는 상대적으로 적은 피처를 가지고 있는 데이터 세트에 비해서 예측도가 떨어진다. 따라서 데이터 피처를 줄여 차원을 줄이는 차원 축소를 해야만 한다. 차원 축소는 피처 선택(feature selection)과 피처 추출(feature extraction)로 나눌 수 있다. 피처 선택은 말 그대로 특정 ..
머신러닝/차원 축소
2021. 5. 6. 17:56