일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 코사인 유사도
- 가설검정
- rnn
- 군집화
- 오래간만에 글쓰네
- numpy
- 최소자승법
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 파이썬 pandas
- 회귀분석
- 밑바닥부터 시작하는 딥러닝2
- F분포
- 밑바닥부터 시작하는 딥러닝
- 다층 퍼셉트론
- 은준아 화이팅
- 기초통계
- 차원축소
- 구글 BERT의 정석
- 모두의 딥러닝
- 머신러닝
- 히스토그램
- word2vec
- 기술통계학
- 자연어 처리
- Django
- 감성분석
- 결정계수
- 텍스트 분류
- Pandas
- student t분포
- Today
- Total
목록머신러닝/회귀 (4)
데이터 한 그릇
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/VeHxW/btq3PBDCYV0/TqXlvpomJfXu5hmr2O23s1/img.png)
로지스틱 회귀 로지스틱 회귀 로지스틱 회귀는 선형 회귀 방식을 분류에 적용한 알고리즘이다. 로지스틱 회귀 역시 선형 회귀 방법이다. 선형 회귀인지 아닌지는 변수의 degree에 따르는 것이 아니라 변수의 계수에 따라 나뉜다. 로지스틱 회귀의 가장 큰 특징은 학습을 통해서 최적의 선형 회귀선을 찾는 것이 아니라 시그모이드(Sigmoid) 함수 최적선을 찾는 것이다. 많은 자연 현상에서 특정 변수의 확률 값은 선형이 아니라 시그모이드 함수와 같은 S자 커브 형태를 가진다. S자 커브 형태의 시그모이드 함수의 가장 큰 특징은 X가 아무리 +,- 쪽으로 나아가도 0이나 1에 수렴한다는 것이다. import pandas as pd from sklearn.datasets import load_breast_cance..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/UCUcn/btq3TsenTsx/V6bGquiIVr0kOSB4FykIfK/img.png)
규제 선형 모델의 개요 릿지 회귀 라쏘 회귀 엘라스틱넷 회귀 선형 회귀 모델을 위한 데이터 변환 규제 선형 모델의 개요 앞서 종속 변수와 독립 변수의 관계가 곡선의 관계를 가지고 있을 때, 일차 방정식의 관계로 파악한다면 과소적합하게 모델을 만든 것이라고 할 수 있고, 더 큰 다항식의 관계로 파악하게 되면 모델이 복잡해지고 변동성이 커져서 오히려 예측력이 떨어진다는 것을 살펴봤다. 지금까지의 선형 회귀 모델 같은 경우에는 RSS, 비용 함수를 줄이는 것에 초점을 맞춰서 식을 만들었다. 하지만 RSS를 최소화 하는 것에만 초점을 두어 모델을 만드는 경우, 학습 데이터를 과적합하게 학습하여 모델이 필요 이상의 다항식으로 나아가게 되고 회귀 계수가 커지면서 과적합하게 되는 문제를 가진다. 따라서 새로운 기준이..