Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 군집화
- 히스토그램
- 회귀분석
- word2vec
- rnn
- 모두의 딥러닝
- 결정계수
- 은준아 화이팅
- student t분포
- 가설검정
- Django
- 차원축소
- 기술통계학
- 텍스트 분류
- 오래간만에 글쓰네
- 자연어 처리
- 기초통계
- 파이썬 pandas
- F분포
- 다층 퍼셉트론
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 밑바닥부터 시작하는 딥러닝2
- numpy
- 밑바닥부터 시작하는 딥러닝
- 최소자승법
- Pandas
- 구글 BERT의 정석
- 감성분석
- 코사인 유사도
- 머신러닝
Archives
- Today
- Total
목록로지스틱 회귀 하이퍼 파라미터 (1)
데이터 한 그릇
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/VeHxW/btq3PBDCYV0/TqXlvpomJfXu5hmr2O23s1/img.png)
로지스틱 회귀 로지스틱 회귀 로지스틱 회귀는 선형 회귀 방식을 분류에 적용한 알고리즘이다. 로지스틱 회귀 역시 선형 회귀 방법이다. 선형 회귀인지 아닌지는 변수의 degree에 따르는 것이 아니라 변수의 계수에 따라 나뉜다. 로지스틱 회귀의 가장 큰 특징은 학습을 통해서 최적의 선형 회귀선을 찾는 것이 아니라 시그모이드(Sigmoid) 함수 최적선을 찾는 것이다. 많은 자연 현상에서 특정 변수의 확률 값은 선형이 아니라 시그모이드 함수와 같은 S자 커브 형태를 가진다. S자 커브 형태의 시그모이드 함수의 가장 큰 특징은 X가 아무리 +,- 쪽으로 나아가도 0이나 1에 수렴한다는 것이다. import pandas as pd from sklearn.datasets import load_breast_cance..
머신러닝/회귀
2021. 4. 30. 17:12