일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- 가설검정
- 은준아 화이팅
- 기초통계
- 회귀분석
- 결정계수
- 머신러닝
- 파이썬 pandas
- numpy
- 다층 퍼셉트론
- 모두의 딥러닝
- 밑바닥부터 시작하는 딥러닝
- rnn
- 최소자승법
- 차원축소
- F분포
- 밑바닥부터 시작하는 딥러닝2
- 자연어 처리
- word2vec
- 군집화
- Pandas
- 기술통계학
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 히스토그램
- 감성분석
- 코사인 유사도
- 구글 BERT의 정석
- 오래간만에 글쓰네
- 텍스트 분류
- Django
- student t분포
- Today
- Total
목록분류 전체보기 (149)
데이터 한 그릇
이번 장은 시계열 분석을 머신러닝에 적용하는 다음 장의 내용에 대한 대비로 볼 수 있다 시계열을 위한 feature 생성 및 선택에 대해 다룬다 특징 생성이란 시계열 데이터의 가장 중요한 특성을 정량화하여 수치 및 범주형 레이블로 압축하는 방법을 찾는 과정이다 시계열을 묘사할 수 있는 특징들의 집합을 짧게 표현하여 원시 시계열로 압축하곤 한다 특징 생성의 목적은 전체 시계열에 대해 가능한 한 많은 정보를 적은 수의 지표로 압축하는 것 또한 압축된 지표로 시계열의 가장 중요한 정보를 식별하고 그 외의 나머지는 제거할 수도 있다 이 기법은 비시계열을 위해서 개발됏지만 시계열에서도 좋은 결과를 낼 수 있는 머신러닝 기법에 중요하다 만일 특징을 생성했다면 그 특징이 정말로 유용한지 명확히 판단해야 한다 전통적인..
벡터자기회귀 실세계에서는 서로 관련성이 있는 여러 시계열이 병렬로 존재할 수 있다 여러 변수에 대한 AR(p) 모델을 생성해볼 수 있다, 이러한 모델은 변수들에게 서로 영향을 주고받는 상황을 제공한다는 장점을 가진다 대신 적합은 모든 변수에 대해 균등하게 이루어진다 한편 계열이 정상이 아닌 경우 전에 살펴본 모델처럼 차분이 적용될 수 있다 외생변수와 내생변수 변수가 서로 영향을 주는 모델을 사용할 때 통계에서는 이 변수들을 내생변수(endogenous) 라고 한다 모델 내에서 보이는 현상을 통해 이 변수들의 값이 설명될 수 있다는 의미이다 외생변수(exogenous) 는 이와는 대조적인 개념으로 모델 내에서는 변수들의 설명이 어렵다는 뜻을 가진다 즉 가정을 통한 설명이 불가능하다는 의미다 따라서 이러한 ..