Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 기술통계학
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 최소자승법
- rnn
- Django
- 모두의 딥러닝
- numpy
- 밑바닥부터 시작하는 딥러닝
- 기초통계
- 밑바닥부터 시작하는 딥러닝2
- Pandas
- 오래간만에 글쓰네
- 감성분석
- 회귀분석
- student t분포
- 결정계수
- 코사인 유사도
- word2vec
- 머신러닝
- 자연어 처리
- F분포
- 구글 BERT의 정석
- 텍스트 분류
- 군집화
- 가설검정
- 파이썬 pandas
- 은준아 화이팅
- 다층 퍼셉트론
- 히스토그램
- 차원축소
Archives
- Today
- Total
목록로지스틱 회귀 (1)
데이터 한 그릇
딥러닝의 동작 원리(2) - 로지스틱 회귀
시그모이드 함수 오차 공식 로그 함수 로지스틱 회귀에서 퍼셉트론으로 로지스틱 회귀 True or False 중 하나를 선택해야 하는 경우 로지스틱 회귀 원리를 거쳐 이루어진다. 데이터의 위치가 0 혹은 1로 존재할 경우에는, 직선으로 데이터를 잘 표현할 수 없다. 이때 사용하는 게 로지스틱 회귀 시그모이드 함수 y = 1 / 1 + e^-(ax+b) 결국 시그모이드 함수도 ax + b 를 구해야 함을 알 수 있다. (선형 회귀에서도 직선 ax + b 를 구하는 게 목표였다.) 단 직선에서 a는 기울기, b는 절편을 의미했다면 시그모이드 함수는 다르다. 시그모이드 함수 내에서 a 는 그래프의 경사도를 의미, b 는 그래프의 좌우 이동을 의미한다. a값이 커지면 경사가 커지고 작아지면 경사가 작아진다. 시그..
카테고리 없음
2022. 1. 4. 14:07