Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- numpy
- student t분포
- F분포
- 코사인 유사도
- 밑바닥부터 시작하는 딥러닝2
- 머신러닝
- word2vec
- 차원축소
- 기술통계학
- 은준아 화이팅
- 히스토그램
- 파이썬 pandas
- 모두의 딥러닝
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 오래간만에 글쓰네
- 다층 퍼셉트론
- rnn
- 자연어 처리
- 감성분석
- 밑바닥부터 시작하는 딥러닝
- 결정계수
- Pandas
- 구글 BERT의 정석
- 군집화
- 최소자승법
- 텍스트 분류
- 회귀분석
- 가설검정
- Django
- 기초통계
Archives
- Today
- Total
목록딥러닝 동작 원리 (1)
데이터 한 그릇
딥러닝의 동작 원리(1) - 선형 회귀
선형 회귀 경사 하강법 선형 회귀 딥러닝의 가장 기초적인 계산 단위 두 가지 : 선형 회귀, 로지스틱 회귀 기존의 데이터를 이용해서 하나의 직선을 그리고 이 직선을 이용해서 새로운 데이터에 대해 예측을 시도. 직선의 방향을 정하고 정확한 기울기와 절편을 구하면 됨. 최소 제곱법 기울기와 절편을 구할 때 사용. 단, 한 개의 x가 주어졌을 때 가능. a = (x - x평균)(y - y평균)의 합 / (x - x평균)^2 의 합 b = y의 평균 - (x의 평균 x 기울기 a) 이를 통해서 구한 직선이 오차가 가장 적은 예측 직선 import numpy as np x = [2,4,6,8] y = [81,93,91,97] mx = np.mean(x) my = np.mean(y) divisor = sum([(i..
딥러닝/모두의 딥러닝
2022. 1. 4. 13:49