일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 감성분석
- 밑바닥부터 시작하는 딥러닝
- numpy
- 가설검정
- 구글 BERT의 정석
- 모두의 딥러닝
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 결정계수
- 은준아 화이팅
- 기술통계학
- 밑바닥부터 시작하는 딥러닝2
- 텍스트 분류
- 오래간만에 글쓰네
- 회귀분석
- 다층 퍼셉트론
- 코사인 유사도
- 기초통계
- Django
- student t분포
- 자연어 처리
- rnn
- 최소자승법
- F분포
- 머신러닝
- Pandas
- 군집화
- word2vec
- 히스토그램
- 파이썬 pandas
- 차원축소
- Today
- Total
목록머신러닝 (36)
데이터 한 그릇
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bLuebN/btq4gbdkuQi/hBdRAmKTvDBLxHRD9MpNhK/img.png)
차원 축소란 PCA 개요 차원 축소란? 머신러닝 차원 축소 편에서는 대표적인 차원 축소 알고리즘인 PCA, LDA, SVD, NMF에 대해서 살펴볼 예정이다. 차원 축소란 매우 많은 피처로 구성된 데이터 세트의 차원을 축소해 새로운 차원의 데이터 세트를 생성하는 것이다. 일반적으로 차원이 증가할수록 데이터 포인트 간의 거리가 기하급수적으로 증가한다. 따라서 수많은 데이터 피처를 가지고 있는 데이터 세트 경우에는 상대적으로 적은 피처를 가지고 있는 데이터 세트에 비해서 예측도가 떨어진다. 따라서 데이터 피처를 줄여 차원을 줄이는 차원 축소를 해야만 한다. 차원 축소는 피처 선택(feature selection)과 피처 추출(feature extraction)로 나눌 수 있다. 피처 선택은 말 그대로 특정 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/ItJZO/btq4bCJq5xC/kUmySyUWZLJKMzaKvHZEMK/img.png)
캐글에 있는 고급회귀 기법으르 사용한 집값 예측 데이터를 분석해 봤다. train 데이터 만으로 분석을 해봤다. 데이터 셋 변수 설명 # Features description SalePrice - the property's sale price in dollars. This is the target variable that you're trying to predict. MSSubClass: The building class MSZoning: The general zoning classification LotFrontage: Linear feet of street connected to property LotArea: Lot size in square feet Street: Type of road acces..