일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- word2vec
- numpy
- 모두의 딥러닝
- 머신러닝
- 히스토그램
- 회귀분석
- 은준아 화이팅
- 자연어 처리
- 가설검정
- Django
- 다층 퍼셉트론
- 밑바닥부터 시작하는 딥러닝2
- 감성분석
- Pandas
- 결정계수
- 기초통계
- rnn
- 군집화
- F분포
- 오래간만에 글쓰네
- 최소자승법
- 텐서플로2와 머신러닝으로 시작하는 자연어처리
- 밑바닥부터 시작하는 딥러닝
- 코사인 유사도
- student t분포
- 구글 BERT의 정석
- 기술통계학
- 파이썬 pandas
- 텍스트 분류
- 차원축소
- Today
- Total
목록텍스트 분류 (2)
데이터 한 그릇
모델링 1. 머신러닝 모델 : 선형 회귀 모델, 랜덤 포레스트 모델 등등 2. 딥러닝 모델 : 합성곱 신경망(CNN), 순환 신경망(RNN) 등등 TF-IDF 를 활용한 모델 구현 TF-IDF 단어 임베딩 이후, Logistic Regression 모델을 활용한 감성 분류 모델을 만들 것.(머신러닝 감성 분석) DATA_IN_PATH = './data_in/' TRAIN_CLEAN_DATA = 'train_clean.csv' train_data = pd.read_csv(DATA_IN_PATH + TRAIN_CLEAN_DATA) reviews = list(train_data['review']) sentiments = list(train_data['sentiment']) 전처리된 데이터를 불러오고 revie..
텍스트 데이터에서 다양한 방법으로 텍스트 분류 모델을 만들기 전에, EDA 작업과 전처리 작업을 진행할 예정. 데이터는 kaggle 에 있는 wrod2vec -nlp-tutorial 데이터를 사용할 것. 이때 캐글의 데이터는 직접 홈페이지 다운 방식이 아니라 api 를 사용. 데이터 EDA import numpy as np import pandas as pd import matplotlib.pyplot as plt import seaborn as sns !kaggle competitions download -c word2vec-nlp-tutorial 캐글 api 이용해서 wrod2vec -nlp-tutorial 데이터 다운. DATA_IN_PATH = './data_in/' TRAIN_INPUT_DATA..