일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 히스토그램
- 텍스트 분류
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 다층 퍼셉트론
- 최소자승법
- 파이썬 pandas
- 차원축소
- 기술통계학
- 구글 BERT의 정석
- 밑바닥부터 시작하는 딥러닝
- 은준아 화이팅
- student t분포
- 오래간만에 글쓰네
- 가설검정
- 결정계수
- rnn
- 밑바닥부터 시작하는 딥러닝2
- word2vec
- 군집화
- Pandas
- 회귀분석
- F분포
- 자연어 처리
- Django
- 모두의 딥러닝
- 머신러닝
- 코사인 유사도
- numpy
- 기초통계
- 감성분석
- Today
- Total
목록머신러닝/머신러닝기초 (7)
데이터 한 그릇
StandardScaler 피처의 값들의 크기가 크면 머신러닝 성능에 안좋은 영향을 끼친다. 표준화를 시키는 작업. 가우시안 분포 즉, 정규분포를 만들어감 from sklearn.preprocessing import StandardScaler, MinMaxScaler from sklearn.datasets import load_breast_cancer import pandas as pd data_cancer = load_breast_cancer() 사이킷런 데이터 로드하기 data_pd = pd.DataFrame(data = data_cancer.data, columns = data_cancer.feature_names) data_pd['target'] = pd.DataFrame(data = data_c..
교차검증해보기 import numpy as np np.mean(cross_val_score(knn, X_train, y_train)) 최적의 하이퍼 파라미터 찾아보기 temp = [] for i in range(1,20): knn = KNeighborsClassifier(n_neighbors = i) knn.fit(X_train, y_train) temp.append(knn.score(X_test, y_test)) 반복문을 통해서 최적의 하이퍼 파라미터 값을 찾아볼 수 있음. GridSearchCV GridSearchCV 를 통해서 모델의 최적의 하이퍼 파라미터값을 서칭할 수 있다. params = { 'n_neighbors' : [2,3,4,5,6,7], 'weights' : ['distance','u..