ML, DL & Python
-
리그오브레전드 데이터 분석 - match data EDA(2)ML, DL & Python/Riot API를 활용환 데이터 분석 2020. 3. 15. 17:13
안녕하세요. 이번 포스팅은 저번에 이어서 연속형 데이터에 관한 분석을 진행해보도록 하겠습니다. 저번 포스팅을 간략하게 요약하자면 범주형 변수(1/0)에 대한 시각화를 진행했엇는데요. 결과적으로 우리가 알고 있던 자명한 사실들을 데이터적으로 확인할 수 있엇습니다. 본격적으로 연속형 데이터 분석을 진행하도록 하겠습니다. 아 그리고 해당 포스팅을 읽기전에 처음 읽으시는 분들은 1번째 포스팅을 먼저 읽어주시면 감사하겠습니다.(데이터를 받으실 수 있거든요 ㅎㅎ) 1. 데이터 불러오고 처리하기 이 부분은 이전 포스팅에서 자세히 다루고 있으므로 코드 한개에 담겠습니다. import pandas as pd import pickle import matplotlib.pyplot as plt import numpy as n..
-
리그오브레전드 데이터 분석 - match data EDA(1)ML, DL & Python/Riot API를 활용환 데이터 분석 2020. 3. 8. 18:47
안녕하세요 포스팅이 너무 늦은 것 같습니다 ㅠㅠ 취준에다가 회사일에다가... 이것저것 핑계를 일삼아 블로그 포스팅에 굉장히 소홀했던 것 같습니다... 그래서! 저도 이전에 했던 분석 히스토리가 가물가물한데 여러분들은 더 가물가물하겠죠? 죄송한 의미로 메일을 남겨주시면 분석한 경기데이터를 보내드리도록 하겠습니다. (그랜드마스터의 경기 17500건의 데이터입니다. 데이터 변수에 대한 설명은 아래의 링크를 참고해주세요) 리그오브레전드 데이터를 활용한 승/패 예측 이전 포스팅에서 수집한 매치데이터를 이용하여 팀의 승/패를 예측해보겠습니다. 다들 teams 변수를 이용하여 데이터프레임화를 했던 것을 기억하시나요. teams데이터는 리스트안에 딕셔너리가 있는 구조로써 dict.. shinminyong.tistory..
-
Django를 활용한 리그오브레전드 전적 검색 사이트ML, DL & Python/Django 2019. 6. 17. 00:19
안녕하세요. 요즘 파이썬으로 개발하는 Django(이하 장고) 프레임워크에 대해서 공부를 하고 있는데요, 장고는 매우 손 쉽게 어플리케이션을 만들고 서버를 통해서 웹을 만들 수 있는 강력한 웹 프레임워크입니다. 장고는 트위터 개발자들이 개발을 하는 과정에서 항상 어느정도 비슷한 부분이 있기에 어디에서도 공용으로 사용할 수 있는 프레임워크를 개발한 것이 이 장고입니다. 장고에 대한 간략한 설명은 따로 포스팅할 예정이며 지금은 바로 장고를 사용하여 간단한 롤 전적 사이트를 만들어 보겠습니다. 먼저 제가 앞선 포스팅에서 라이엇 api를 통해서 리그오브레전드의 데이터를 수집하는 것을 알아보았습니다. 여기서 알아두셔야 할 부분은 소환사 닉네임과 닉네임을 통해서 반환받은 id 키 값, 그리고 그 키 값을 이용하여 ..
-
내 이해를 도울 Django flowML, DL & Python/Django 2019. 6. 17. 00:18
안녕하세요 이번 포스팅은 장고를 구현함에 있어서 초기 세팅해야하는 것들과 장고의 처음 시작부터 끝까지 그리고 장고를 만드는 과정에서 필요한 코드 같은 것들을 R에서 ggplot을 정리한 것처럼 정리해보겠습니다. 본 포스팅은 장고걸스를 통해서 많은 도움을 얻었습니다. 1. django 설치 장고를 설치하기 위해서는 python 3.6버젼 이상(권장) , 그리고 pip가 최신 버젼이여야 합니다. 따라서 command linedp 아래와 같은 코드를 입력합니다. C:\Users\내로컬위치 > python -m pip install --upgrade pip 그 다음은 장고를 설치해야겠죠? pip install django~=2.0.0 -결과- Collecting Django~=2.0.6 Downloading D..
-
주가 이동평균선을 활용한 시각화 및 최적의 매수시점 찾기ML, DL & Python/주식데이터를 활용한 분석 2019. 6. 10. 20:24
이번 포스팅은 각 기업의 주가 데이터를 활용하여 이동평균선을 구하고 이동평균선을 이용하여 최적의 주식 매수시점을 분석해보겠습니다. 주가 이동평균선은 n일 뒤의 대략적인 수익률을 알 수 있는 선입니다. 즉, 이동평균선은 "일정 기간 동안의 주가를 산술 평균한 값인 주가 이동평균을 차례로 연결해 만든 선"으로 정의한 것입니다. 이동평균선을 그리려면 먼저 여러개의 주가이동평균 값이 필요합니다. 여기서 말하는 주가이동평균이란 일정기간의 주가를 산술 평균한 값을 말합니다. 만일 parameter에서 window=5인 것은 5일 주가이동평균을 말하고 이를 연결한 선이 5일 주가이동평균 선입니다. (window = 120 -> 120일 주가이동평균) 주가이동평균선은 시장의 전반적인 주가 흐름을 판단하고 향후 주가의 ..
-
기업 재무제표 크롤러ML, DL & Python/주식데이터를 활용한 분석 2019. 6. 10. 18:58
이번 포스팅은 기업의 재무제표를 수집할 수 있는 크롤러를 만들어보겠습니다. 기업의 재무제표는 기업의 현 상황 및 앞으로의 일어날 수 있는 일을 예측할 때 중요하게 사용되는 변수입니다. 따라서 주식에서 굉장히 중요하다고 볼 수 있는 각 기업별 재무제표를 수집하여 유용한 곳에 사용하고자 크롤러를 만들었습니다. 기업의 재무제표는 "네이버 금융"에서 종목코드를 검색하면 종목코드에 맞는 기업의 재무제표를 확인할 수 있습니다. 바로 시작해보겠습니다. 1. "네이버 금융" 접속 네이버 금융 국내 해외 증시 지수, 시장지표, 펀드, 뉴스, 증권사 리서치 등 제공 finance.naver.com 여기서 기업의 재무제표를 수집하는 크롤러를 만들 것 아무 종목코드나 입력하고 재무제표가 있는 부분의 "더보기"를 클릭하고 확인..
-
감정분석 모델을 이용한 네이버 평점 긍/부정 분석ML, DL & Python/감정분석 2019. 6. 8. 17:47
안녕하세요. 이번 포스팅은 저번에 만들었던 감정분석 모델을 활용하여 "네이버 영화"에서 영화를 하나 골라 사람들이 남긴 평점과 별점을 이용하여 만들었던 모델이 얼마나 정확하게 만들었는지(타당성) 확인하고 긍/부정을 예측한 뒤에 ㅇ사람들이 남긴 각 평점과 비교를 해보겠습니다. 먼저 그러기 위해서는 네이버 영화의 사람들이 남긴 평점 정보를 수집해와야합니다. 1. 네이버 영화에서 수집할 영화 및 수집할 영역 찾기 이번에 수집할 영화는 "엑스맨 : 다크피닉스"라는 영화의 데이터를 수집해보도록 하겠습니다. 수집할 카테고리는 평점 카테고리며 사람들이 남긴 댓글과 별점을 수집할 것입니다. 수집할 데이터를 확인해보면 다음과 같습니다. 2. 셀레늄으로크롤링하기 네이버 영화에서 제가 필요로하는 정보가 html코드 상에서 ..
-
감정분석 모델을 통한 네이버 평점 분석ML, DL & Python/감정분석 2019. 6. 6. 19:36
안녕하세요 이번 포스팅은 감정분석을 통해서 네이버 평점으로 사람들이 영화를 평가해 놓은 것에 대해서 긍정 / 부정 평점인지 분석한 다음 실제로 사람들이 부여한 별점과 비교하여 얼마나 정확하게 사람들의 감정을 예측했는지 알아보도록 하겠습니다. 따라서 먼저 감정분석 모델을 만들고 데이터를 학습시켜 보겠습니다. 본 포스팅의 내용은 아래의 블로그를 참고하여 만들었습니다. [Keras] KoNLPy를 이용한 한국어 영화 리뷰 감정 분석 이 포스트에서는 KoNLPy, nltk, Keras를 이용해서 한국어 영화 리뷰의 감정을 분석하는 방법에 대해 다룹니다. cyc1am3n.github.io 데이터는 영화 리뷰 데이터(ratings_train.txt, ratings_test.txt)를 이용하겠습니다. http://g..